Ohne Kanäle wie deine wäre meine Hoffnung in die Zukunft der Menschheit schon lange den Bach runter gegangen 😄 Erfährt man sonst kaum in Medien. Immer nur, was schief läuft.
Dann konsumierst Du wohl die falschen Medien, lieber Ta'Uri. Norios Content ist mir dann doch leider zu oft bisschen overhyped. Aber das gehoert wohl zum UA-cam Game.
Das Problem wäre bei grösseren Mikrochips neben dem Fakt, dass sie nicht reinpassen auch, dass die Herstellungskosten sich erhöhen würden. Und Fehler könnten pro Mikrochip dann auch noch häufiger auftreten, welches somit auch mehr unbrauchbar machen würde (es gibt bei Parallelen Einheiten wie CPU-Kerne, Cache usw. zwar eine Möglichkeit, dass man nur den Teil deaktiviert und der Rest funktioniert, allerdings ist das keine Lösung für jede Anwendung). Eine Lösung würden zwar Multichip-Module geben (Die Ryzen 3000er und Ryzen 5000er Desktop-Prozessoren nutzen das tatsächlich), allerdings wären bei Fällen wo hohe Bandbreite nötig wären Interposer (heruntergebrochen eine Art sehr, sehr, SEHR feines PCB) notwendig, welche die Kosten steigen würden (Wurden tatsächlich bei den Radeon R9 Fury & Radeon RX Vega Karten bereits eingesetzt und werden im professionellen Bereich auch eingesetzt, damit die HBM-Module mit der GPU verbunden werden können). Trotz der Lösung von Problemen, welche durch grosse Mikrochips entstehen, würden grosse Chippakete immer noch viel Platz von den Wafern belegen. Und die herzustellen ist aufwändig. Automatisierbar aber aufwändig. Die Kosten vom Aufbau solcher Fabriken steigt stetig an, da die feineren Lithographien immer höhere Anforderungen haben, wodurch die Kosten der Wafer auch stark gestiegen sind. Dazu brauchen wir auch noch immer mehr Mikrochips, weil die Nachfrage stetig steigt (alleine IoT, von den smarten Autos und den immer leistungshungrigeren Programmen ganz zu schweigen) Kurzgesagt: Die Technik die wir haben wird in der Verbesserung immer ineffizienter im Preis/Leistungsverhältnis. Daher wird es langsam Zeit, dass wir neue Technologien brauchen, welche die Alten ablösen. Diese Phototransistoren haben tatsächlich das Potenzial dazu. Ich bin aber skeptish gegenüber dem TMD-Transistor, zumindest im Kontext von Hochleistungschips. Könnte aber was werden bei I/O-Controllern, wo es nicht auf die Latenz so stark ankommt. Quelle zu den gestiegenen Kosten: cset.georgetown.edu/wp-content/uploads/AI-Chips%E2%80%94What-They-Are-and-Why-They-Matter.pdf Seiten 12, 13, evtl. 43, 44 Dokument ist generell interessant, da es die Kosten & Verbesserungen der Lithographie ganz gut zusammenfanssend zu sein scheint (hab jetzt aber nicht alles gelesen, um ganz Ehrlich zu sein)
Zunächstmal bezieht sich Moors Law übrigens ursprünglich auf die in Bezug auf die Kosten optimale Zahl von Bauelementen pro Chip. Das bezieht sich auf die Tatsache, das bei Chips mit wenigen Transistoren die Kosten für das Handling und die Verkapselung überwiegen und bei zu großen Chips die Ausschußrate hochgeht. Die physikalische Größe der Chips ist nur selten ein Problem. "Die Technik die wir haben wird in der Verbesserung immer ineffizienter im Preis/Leistungsverhältnis." Das ist kompletter Unfug. Die Verbesserung bezieht sich ja gerade auf das Preis/Leistungsverhältnis. Ein Problem ist aber die Skalierung. Der Preis pro Fabrik steigt, was bisher durch mehr Produktivität der entsprechenden Fabrik ausgeglichen wurde. Sprich die Fabrik kostet mehr, produziert aber auch entsprechend mehr, Preis Leistung stimmt also. Preis Leistung der Produkte wird noch mal besser. Allerdings steigt der Preis pro Fabrik schneller als der Markt. Das führt zunächstmal dazu das es weniger neue Fabriken gebaut werden, die aber jeweils mehr produzieren. Der höhere Ausstoß einer einzelnen Fabrik hat aber eine Grenze, da sie zu den Punkt kämen, bei den eine einzelne Fabrik sehr viel mehr produzieren könnte als insgesamt auf der Welt nachgefragt wird. Das bedeutet, das es ab einen bestimmten Punkt die bisherige Entwicklung unwirtschaftlich wird.
@@vornamenachname2625 Die Verbesserung der Lithografien bezieht sich nicht primär auf das Preis/Leistungsverhältnis, sondern auf den Leistungszuwachs sowie auf die Verringerung des Stromverbrauchs Was die ineffizienz im Preis/Leistungsverhältnis angeht: Ich meinte dort vorallem, dass das Preis/Leistungsverhältnis schleppender sich verbessert. Die Verringerung des Preis/Leistungsverhältnis stagniert also, so wie ich das sehe. Ich beziehe mich bei folgendem auf die Tabelle in Seite 43/44 in jener Quelle im ursprünglichem Kommentar. Ich will hier die Kosten pro Transistor veranschaulichen, mithilfe des Preises pro Chip in equivalenter Menge an Transistoren in den Wafern, welche in der Tabelle angegeben sind: 90nm: $2'433 65nm: $1'428 40nm: $713 28nm: $453 20nm: $399 16/12nm: $331 10nm: $274 7nm: $233 5nm: $238 bei den Lithografien 90-28nm sinken die Kosten pro chip ziemlich stark, von Lithografie zu Lithografie, aber ab 20nm stagniert die Senkung sichtbar. währenddessen die Kosten pro Chip von 65nm zu 40nm etwas mehr als halbiert wurden, sinken die Kosten von beispielsweise 28nm zu 20nm um nicht einmal 1/4 Die Kosten pro Chip in 5nm sind sogar geringfügig gestiegen, da es aber eine ziemlich neue Lithografie ist, würde ich es nicht weiter beachten. (Sorry wegen dem langen Kommentar, ich würde mir wünschen, wenn es gerade eine Tabellenfunktion gäbe...) Dadurch, dass der Preis pro Transistor immer weniger sinkt, ziehe ich daraus, dass wir inner ineffizienter werden, in der Entwicklung vom Preis/Leistungsverhältnis. Die Kosten sind auf dem Weg die Verbesserungen zu überschatten. Logisch, denn je näher wir an die Grenzen kommen, desto schwieriger und aufwändiger ist es, Verbesserungen zu erzielen. Was die Produktion bei den Fabriken angeht: Wenn du dich auf die Menge an Transistoren beziehst, würde ich dir zustimmen. Eine Fab, welche Wafer auf einer 28nm-Lithografie produziert, wird weniger Transistoren bei der gleichen Menge an Wafern produzieren können, als eine Fab, welche Wafer auf einer 7nm-Lithografie produziert. Aber man darf nicht vergessen, dass die Chips auch immer komplexer werden und immer mehr Transistoren brauchen, um bessere Leistung erzielen zu können. Alleine dadurch steigt die Nachfrage nach Transistoren rasant an. Dazu kommt dass die Welt digitaler wird und unsere Umgebung immer smarter wird, Stichwort IoT. Klar, IoT braucht nicht wirklich Leistung bei den Chips, aber sie brauchen richtig, RICHTIG viele von denen. Ich rede von einer Zukunft, wo jeder Jogurtbecher einen kleinen Chip hat, damit der Kühlschrank weiss, was für Produkte in dem sind. Und wir haben da noch gar nicht davon geredet, was die Stagnierung bei den Kostensenkungen pro Transistor für eine Auswirkung hat, bei den CPUs und GPUs, welche immer mehr brauchen. Kurzgesagt: Die gesalzenen Turing-UVPs und die krassen Preise durch die Knappheit der jetzigen Generation, scheinen erst der Anfang zu sein... Coreteks hat dazu auch ein Video gemacht, welches mir ziemlich gut gefällt: ua-cam.com/video/jD1XGJEUvzA/v-deo.html
Wie immer ein super interessantes Video. Mich würde aber mal interessieren was für Hard- und Software du so benutzt (Betriebsystem und schneiden) und ob du vor hast live streams zu machen.
Und wie immer mit leichten Fehlern / eigentlich schon "alte" Infos... In diesem Fall wird z.B. das Moor'sche Gesetz falsch dargestellt... da geht man von "ca. alle 2 Jahre verdoppelt sich die Rechenleistung" aus und nicht "zwischen Monaten und Jahren".... Und es wird auch nicht nur vermutet, das es eine maximale Elektronengeschwindigkeit gibt, sondern sie wurde je nach Leitungsmaterialien ausgemessen und beträgt z.B. bei Kupfer ca. 1/10 mm je Sekunde, wie man in einem Physik Kurs der Mittelstufe gelernt haben sollte! Es gibt die Geschwindigkeitsvorteile der letzten Jahrzehnte hpts. nur dadurch, das man die Wege der Elektronen "verkürzt" durch z.B. kleinere Technologien (mm => nm => um) sowie die Anbindungen zum Speicher (=> CPU onboard Cache, der immer größer wird.), vervielfachung der Kerne/Hyperthreading und die Spannung reduziert wurde (ohne daraus resultierende Rechenfehler) , um weniger Abwärme zu erzeugen, wodurch man die in den 90-er Jahren errechnete maximale CPU Taktung von ca. 2,78 GHz auf über das 2fache bei "normaler Nutzung und über 3-fache bei Helium Kühlung herausholen kann... Und damit ist die Clickbait Aussage, das Schwefel Prozessoren mehr als das 800fache an Geschwindigkeit zurücklegen können, extrem unwahrscheinlich... denn die "externe Kommunikation" kann nicht schneller werden...
Ich finde deine Videos richtig interessant hab dich erst heute gesehen und direkt gefolgt! richtig nice geschnitten PS: Ich hab jedes zweite Wort nicht verstanden weil ich gar keine Ahnung davon hab lol^^
Damals zum Mund sind sie mit: 1 Mhz Prozessor und 4 kilobyte Ram. Du hast recht, jedes Handy ist heut viel stärker aufgestellt. Aber selbst Waschmaschinen der letzten Jahre haben bei weitem mehr Rechenleistung. Dennoch beeindruckend, was damals mit diesen Rechnern gleistet worden ist. Tolles Video, das Thema kannte ich so noch gar nicht. Vielen Dank für die Aufbereitung!
Wieso mischt man beides nicht ? Macht doch Sinn oder ? Strom fließt teilweise genau so gut und man kann mehr verbauen oder stell ich mir das zu einfach vor ?
1:46 wo kommt dieses Periodensystem her? ich mein der Fehler das Ordnungszahl 14 Zeichen Si und Name "Hydrogen" (Wasserstoff) ist ist grade in diesem Video Urkomisch, aber wie und wo kam es zu diesem Fehler?
Als jemand der 10 Jahre in Halbleiterei war kann ich sagen, große Chips sind unbezahlbar. Man hat pro Silizium Wafer x Fehler. Wenn jetzt der Chip zu gross wird steigt auch die Wahrscheinlichkeit das sehr viele der Chips von einem Wafer kaputt sind. Zu der Zeit wo ich in der Halbleiterei gearbeitet hatte, war alles über 2 qcm unbezahlbar für "normale" Endkunden.
Erstens Silizium basierte Prozessoren können kleiner als 5 nm sein(TSMC prodoziert ab 2023 wahrscheinlich 3nm(Silizium basiert)). Zweitens ist die Größe der Chips nicht durch die Größe des Gerätes sondern durch die Latenz im Chip begrenzt, welche bei zunehmender Größe Problematisch wird.
N5 und N3 usw. sind Marketingnamen. Man könnte sicherlich mit derzeitigen mitteln den Gate Pitch/Length oder bestimmte Abstände an 3nm annähern, aber tatsächlich ist keine beestimmbare Struktur in den aktuellen Fertigungen "3nm" groß. Die Foundries haben auch Tabellen zu den tatsächlich möglichen physischen Elementgrößen. Hinzu kommt, dass nicht jeder Chip die maximale Packdichte die der Prozess ermöglicht auch ausnutzt. Ein GPU Chip und ein auf dem gleichen Prozess gefertigter CPU Chip können sich in der Transistordichte massiv unterscheiden. Das kann verschiedene Gründe haben, denn es kommt unter anderem darauf an, welche Schaltungen genutzt werden. SRAM Zellen (Cache) bspw. lassen sich schwieriger skalieren im Vergleich zu Logik-Gattern (CPU-Cores). Auch kann ein Grund die gewünschte Taktung des Chips sein. "Weitere" Designs lassen oft mehr Takt zu, je nach Pipeline und Core Design. Das heißt unterschiedliche Chips auf dem gleichen Fertigungsnode können sich in der Anzahl der genutzten Transistoren pro Quadratmillimeter (Packdichte) stark unterscheiden. Immer eine Frage dessen, was der Entwickler des Chips als Zielsetzung hat. Es bleibt aber dabei, das ein N7, N5 oder N3 Prozess eher keine Elemente mit einer größe von exakt 7nm, 5nm oder 3nm in den Chip bringt. Tabellen für eine grobe Idee findet man beispielsweise hier: en.wikichip.org/wiki/7_nm_lithography_process Es ist übrigens genauso physikalisch falsch, wenn man sagt man könne Transistoren nicht kleiner als 5nm fertigen. Selbst als tatsächliche physikalische Größe reicht tatsächlich ein einzelnes Atom. Wie Praxisnah dies für eine Serienfertigung zu einem sinnvollen Preis ist, sei dahingestellt. Physikalisch ist die Behauptung aber schlicht falsch, wie nachgewiesen wurde: www.scinexx.de/news/technik/kleinster-transistor-der-welt-hat-nur-ein-atom/ Was die Latenz betrifft, hast du sowohl in der Planaren als auch der 3D Fertigung bzw. FinFet recht. Allerdings geht man deswegen zum gestapelten Packaging. Man baut also "nach oben", weil die Signalwege ab einer gewissen Fläche nach oben einfach immernoch kürzer werden, als weiter in die "Breite" zu bauen. Latenzen hängen aber nicht ausschließlich an der reinen Fläche/Weg des Signals, sondern auch an möglicher Taktung. Ein 5GHz CPU Kern nützt dir nichts, wenn die SRAM Zellen (Cache) bei (gesponnen) 100MHz dicht machen, dann Taktet zwar der Kern hoch, wartet aber dauernd auf Arbeit. ^^ Das ist ein komplexes Feld und wird oft viel zu "pauschal" betrachtet. Da steckt noch eine Menge mehr dahinter und je nachdem, welches Ziel der Chipdesigner erreichen will, kann es durchaus sein, dass ein gleich großer Chip in 5nm weniger Transistoren hat als ein anderer in 7nm, der aber einen anderen Zweck als Ziel hat. (viel Cache, wenig Logik/wenig Cache, viel Logik, simpel ausgedrückt). Dennoch kann es aufgrund der meist geringeren nötigen Schaltspannung von Transistoren in neueren Nodes durchaus Sinn machen, die CPU ohne Flächengewinn auf dem kleineren Node zu fertigen.
@@VPGTube Vielen Dank für deine sachliche Antwort und Aufklärung. Ich dachte die nm Angabe der Prozesse sei "korrekt", obwohl ich es bereits komisch fand das Intels 10nm Prozessor ungefähr die selbe Transistoren pro Quadratmillimeter wie TSMCs 7nm haben soll. Ich wusste bisher nicht von der "Inkorrektheit" dieser Angaben bzw. die Richtige Bedeutung(ua-cam.com/video/_wAeL3f3iV4/v-deo.html (ab 15:30))
Der Geschwindigkeitsvorteil bezieht sich auf die gewonnene Transistordichte. Ob der Chip wirklich durch die Stromflussgeschwindigkeit langsamer wird, ist ungewiss
ziemlich gutes video, allerdings gibt es doch schon 2 nm silizium chips die funktionieren? glaube tsmc baut die sind aber noch nicht in pc chips verbaut soll glaub ich erst so in 2 jahren passieren, gut aber wie die fehlerrate ist weiß ich nicht
Das Moorsche Gesetz führt übrigens dazu, das es komplett neue Technologien sehr schwer haben. Am ehesten fassen neue Technologien bei neuen Anwendungen Fuß. Geringere Taktraten und dafür höhere Integrationsdichten sind gerade bei CPU's überhaupt nicht gefragt. Da ist eher das Gegenteil z.B. in Form von Galliumarsenid interessant. Insoweit ist das der völlig falsche Zielbereich. Eine Zuverlässigkeit von 99% heißt übrigen das man bei einen Schaltkreis mit 69 Transistoren 50% Ausschuss hat.
Was ist aus dem Ansatz geworden 3/5 Halbleiter wie Gallium Arsenik zu verwenden. Zu meiner Studienzeit 87/93 war das der heiße Favorit beim Ablösen von Silizium. Danke für das coole Video. Habe auch Elektro-Optik vertieft und Photonic war auch schon ein Thema...leider habe ich beruflich das Wissen nicht anwenden können.
"Zu meiner Studienzeit 87/93 war das der heiße Favorit beim Ablösen von Silizium." Und bis jetzt rennt Silizium GaAs im Mainstream davon. Klar gegen die heutige verfügbare GaAs Technologie hätte die Siliziumtechnologie von 93 nicht den Hauch einer Chance. Solange sich die Si Entwicklung aber nicht verlangsamt ist sie aber kaum.
Wie geht das, dass die Transistoren noch kleiner sind als die aus Silizium? Wir sind doch schon nahe an der atomaren Grenze bei den herkömmlichen Transistoren.
Das ist mega tolles Feedback! Dann weiß ich nun, dass ich in Zukunft vielleicht die Inhalte etwas leichter zugänglich gestalten sollte. Kannst du mir sagen was für dich etwas zu kompliziert war? :)
@@Officialnorio Einerseits sind viele Themengebiete auch auf längeren Zeitraum betrachtet sehr interessant, auf der anderen Seite würde ich gerne mehr wissen, womit ich in näherer Zukunft rechnen kann. Akkus, Technologien, etc. Was mir zu kompliziert war, kann ich dir jetzt nicht genau sagen, sorry. 🙂
@@Officialnorio Finde die Themenauswahl sehr gut und auch das Niveau der Erklärungen... hier und da kann man durchaus noch tiefer ins Detail gehen... Bin aber soweit voll und ganz zufrieden ;) Gruß
@@Soulleey Ich finde auch, dass manchmal mehr Details gut wären. In dem Video war ich aber zufrieden. Vereinfachen würde ich die Themen nicht, da würde die Qualität leiden! Für manche Dinge braucht man eben ein gewisses Wissen schon im Vorhinein, um sie zu verstehen. Klingt vielleicht hart, aber wer diese Vorwissen nicht hat, hat Pech gehabt und sollte später wieder vorbei schauen, wenn er schon mehr erfahren hat über ein Thema. Ich schaue auch immer wieder mal Videos über Quantentheorie (ja, die sind mir zu hoch 🙂) aber das ist mein Problem. Die Lage bessert sich mittlerweile und ich verstehe in alten Videos Dinge, die ich vor einem Jahr nicht verstanden habe.
Interessant auf jeden Fall. Das Bild der Schwefelmine zeigt aber auch das Problem. Der Schwefelabbau ist ein weiteres riesiges Problem, das man berücksichtigen muss. Aber das ist ein anderes Thema.
Ich weiß nicht ob es noch jemand bemerkt hat aber bei 1:49 steht unter Si (Silizium) „Hydrogen“ Chemie ist bei mir zwar ne Weile her aber das ist definitiv falsch. ;-)
Der Lichttransistor hat aber auch einige erhebliche Nachteile. Der größte ist bisher die Größe der Struktur. Diese hängt stark von der Wellenlänge des Lichts ab und ist oft über 1um groß. Da Photonen zur Gruppe der Fermionen gehören und eine schwache WEchselwirkung aufweißen, wobei Elektronen hingegen eine starke Wechselwirkung nutzen, ist es unwahrscheinlich, dass wir zur den elektronischen Transistor durch den photonischen ersetzen. Photonen haben aber zb bei der Übertragung von Daten erheblich Vorteile. Ich glaube in 10 Jahren wird man wie eine GPU einen optischen Chip haben der den klassischen PC ergänzt.
Mit allem Respekt, aber das ist kein Problem der Informatik sondern ein Problem der Ingenieurskunst. Wenn es dann mal einen solchen Prozessor geben sollte, wird die Software darauf zum Problem von uns Informatikern. Wie entwickelt man dann eine KI, die nicht die Menscheit ausschalten will? Für KNNs ist es nämlich nicht von Interesse, ob sie auf schnellen Prozessoren ausgeführt werden, solange die Berechnung massiv parallel erfolgen kann, was dank Verkleinerung der Strukturen möglich sein wird. Menschliche Neuronen arbeiten auch nur mit 1KHz "Taktfrequenz".
bei 1:00 liegt ein fehler vor. TSMC hat bereits 3 nm erreicht. Es gibt soweit ich weiss zwar noch kein marktreifes produkt aber eben die fertigungsanlage! Es heisst immer wieder das wir bereits am ende der fahnenstange angelangt sind, bislang war es immer eine Fehleinschätzung.
bis auf die Tatsache das die nm Angabe keinerlei Echtweltbedeutung mehr hat, stimmt das was du sagst, Intels 10nm (Intel 7) entspricht auch TSMC's 7 nm, die Angaben über die nm basieren auf dem Gesetz von Moore, und schrumpfen abhängig zur Transistoranzahl, da aber keiner sagen kann bei wie viel Micro- oder Nano- Metern die tatsächliche Transistorgrenze zu Anfang lag, sind solche werte nur Marketing um zu sagen "unsere Fertigung ist besser geworden"
Interresant, ich weis das es noch weit weg ist, aber die Zukunft gehört definitiv den Quantencomputer, irgendwann wird die Forschung soweit sein solche Computer zu bauen, und damit eine Revolution auszulösen die alles bisherige in den Schatten stellt, die Rechenkraft eines solchen Computers ist derart Astronomisch das heutige Rechner wie ein schlechter witz sein werden, würde man einen stabilen Quantencomputer mit nur 4 Quanten bauen, würde dieser schon mehr Rechenleistung besitzen als alle jemals gebauten und aktuel laufenden Rechner der Welt zusammen, die Welt würde einen Technologischen sprung der superlative erleben, wahrscheinlich wird dann auch KI einen derartigen sprung machen das wir uns überlegen müssen ob KI dann eine Lebensform darstellt.
Ich find’s ein bisschen weit hergeholt TMD (Transition-metal dichalcogenide (also ein Metal als der Mitte des PSEs wie Molybdän oder Wolfram und dazu ein Element, aus der 6. Hauptgruppe, die zusammen eine Kristallstruktur bilden, aus welchen man wie bei Graphen Monolagen machen kann))-basierten Transistoren als Schwefel-Transistoren zu bezeichnen. Alles andere in diesem Video stimmt. Mit der Siliziumtechnologie kommen wir so langsam an die Grenze. Man kann es vielleicht noch etwas ausreizen aber dem Mooresche Gesetz gerecht zu werden wird mit Silizium nicht funktionieren. Und zur Stromleitgeschwindigkeit -> von diesen Ladungsträgermobilitäten wie selbst bei TMDs geschweigenden bei einkristalienem Silizium können wir bei den organischen Halbleitern gerade nur träumen. Silizium: Bis zu 1400 cm^2/Vs TMDs: Bis zu 1000 cm^2/Vs DNTT (organische Halbleitende Verbindung): Bis zu 5 cm^2/Vs. Das ist aktuell die traurige Wahrheit. Flexible/verbiegbare Handys, die nur aus Kohlenwasserstoffen bestehen, also ohne Stoffe wie Silizium, Gallium, Arsenit und bei den TMDs Molybdän und Wolfram auskommen. Die uns somit unabhängig von Importen machen würden. Die brauchen noch Zeit.
@@Officialnorio "TMD-Transistor" verstehen wahrscheinlich eher weniger. Vielleicht irgendwas mit Monolayer vielleicht? "Transistoren mit Monolayer - aber ausnahmsweise mal nicht Graphen!" Ich meine, TMDs haben nicht immer Schwefel dabei, z.B. Molybdän und Selen oder Molybdän und Telur oder Wolfram und Selen
Interessantes Video. Muss allerdings sagen das es mittlerweile schon eine Weile CPUs auf 5nm in Smartphones gibt und diese noch auf 4nm runtergehen. Intel hat eine Technologie entwickelt um eine grosse von 20A und kleiner zu produzieren (zudem muss man auch sagen das sie eine komplett andere Transistor Technologie nutzen als bisher)
Nur so als Korrektur deines Videos TSMC ist schon bei der Herstellung 3nm Wafer und werden voraussichtlich 2023 im Handel sein. Also stimmt nicht ganz mit 5nm verfahren geht nicht. LG
Mehr widerstand wird mit mehr power kompensiert. Das problem wird dann sein, dass der Chip hops geht wie ein Streichholz. Bereits heute ist es schwierig, High-end chips zu kühlen. Ein nicht ignorierbarer Faktor für industrielle Grossrechner. Und für den Hausgebrauch eignet sich Flüssigheliumkühlung einfach nicht.
Warum baut man nicht einfach größere CPUs um somit mehr Transistoren unterzubringen? Ok, die Leiterbahnen werden dann länger. Aber ich bezweifle dass dies ein Problem darstellt. Gibt es offizielle Statements darüber, warum man die Chips nicht einfach größer baut. Bzw. kennt sich jemand aus?
"Warum baut man nicht einfach größere CPUs um somit mehr Transistoren unterzubringen?" Weil man nicht möglichst viele Transistoren in der CPU haben will, sondern eine möglichst schnelle CPU. Tatsächlich ist es extrem schwer mit mehr Bauteilen eine CPU (-core) schneller zu machen. Heute hat man viel mehr Platz auf den Chip als man für eine CPU braucht. Daher baut man heute gleich mehrere Kerne auf einen Chip.
Verstehe nur bedingt, wieso man da weiter forscht, denn neben der Optronik gibt es noch die genau so schnelle und stromsparenden Magnonik. Sie Arbeitet mit Magnetfeldern. Wo man weiter ist, weiss ich nicht.
nun ja, mit der Stromflussgeschwindigkeit steht oder fällt nun mal das gesamte Konzept, von daher sehe ich das erstmal nicht als vielverprechende Ablösung von Silizium-basierten Prozessoren :)
Super Video👍🏻 Du gehst davon aus, dass die Rechenleistung auch in Zukunft lokal da sein muss. Eine Entwicklung wie z.B. Stadia ist auch für andere Bereiche als Gaming vorstellbar und im Rechenzentrum ist CPU-Größe nicht Faktor Nummer 1.
Ja das ist auch das Problem skip wirklich physikalische Gesetze die wir bald stoßen werden darum ist es eigentlich am wichtigsten eine Alternative zu finden
Schwefel reagiert mit vielen Substanzen ganz super, ich will das nicht im Rechner haben. Es gibt viele Substanzen mit solchen Eigenschaften aber deshalb sind die nicht gleich geeignet.
Ist es nicht Sinnvoller die Technik von der Software aus soweit zu begrenzen das man es deutlich länger nutzen kann ? Mehr Leistung kostet auch mehr, wenn aber weniger gebraucht wird, ist es ein geringeres Problem. Spielekonsolen haben deutlich weniger Leistung als ein High End Rechner, liefern aber vergleichbare Ergebnisse. Das liegt daran das die Konsolen ein Betriebssystem haben das genau darauf ausgelegt ist, während es bei Windows usw. nicht so weit entwickelt ist. Ich habe ein ein Pentium 4 Sockel 478 aus dem Jahr 2002. Ich kann immer noch mit Windows XP und dem Tor Browser damit heute Videos auf UA-cam schauen ( maximal 480 Pixel ). Die werden von jedem entsorgt, obwohl es durch optimierte Software möglich ist, diese deutlich effizienter nutzen zu können.
Das Problem ist einfach, das Silizium jetzt mehrere Jahrzehnte lang die Entwicklung mitgemacht hat. Jetzt müsste man prüfen ob Schwefel /Molibdän das ebenfalls schafft. Das bezweifle ich aber sehr
Naja, wie du schon sagst, Jahrzehnte. Die S/Mo Transistoren stecken ja quasi noch in den Kinderschuhen. Ich finde jede Technologie sollte in den Grundlagen weiter erforscht werden, auch wenn sie nicht sonderlich erfolgreich/gewinnbringend erscheint. Alleine durch die Forschung daran erschafft man Grundlagenwissen, das vielleicht anderswo auch sinnvoll eingesetzt werden kann.
@@HaasiAustria naja, stell dir vor man steckt da jetzt viel Arbeit rein obwohl man bereits abschätzen kann das diese Technologie nur für 2-3 höchstens 4 Prozessorgeneration etwas taugt. Bei allen Dingen wird eine Kosten nutzen Rechnung angeführt, wie will man jahrelange arbeit rechtfertigen?
@@awesomefan86 Glaubst du dass man das schon so genau abschätzen kann? Es gibt ja auch nicht viele Alternativen. Wenn ich zB an Kernfusion denke, da hätten wir vor Jahrzehnten schon damit aufhören müssen. Nicht mal jetzt ist es sonderlich aussichtsreich, dass das jemals rentabel wird und wir machen trotzdem weiter.
"Das Problem ist einfach, das Silizium jetzt mehrere Jahrzehnte lang die Entwicklung mitgemacht hat." Jain. Was noch viel wichtiger ist, das diese Entwicklung ja noch weitergeht. Bestehende Technologien bringen Geld, so das für die Weiterentwicklung wiederum Geld zur Verfügung steht.
Dafür kommen 3D Chips, zuerst 3D Stacking CPUs wie sie AMD mit Ryzen 9 in wenigen Wochen die 1. Modelle anbieten will und später wie bei flash derzeit mehrere Schichten direkt im Herstellungeverfahren!
Das Problem sind Leitungslängen und deren parasitäre (Blind) Widerstände. Ein Beispiel ist bei Prozessoren durch die hochgezüchteten Architekturen nach wie vor Speicher, meistens das schwächste Glied und auch wesentlicher Faktor der Performance. Die Architekturen sind oft so schnell, dass genauso schnell ein Mangel an Daten herrschen kann. Bei L1 Cache der nach Registern als schneller SRAM gebaut wird, muss man abwägen wie groß dieser sein soll. SRAM benötigt viel Chipfläche ist aber schneller und brauch keine MMU. Wenn nun die Länge der Datenleitungen wächst, entstehen dadurch unter anderem größere parasitäre Kapazitäten, d.h. bis die Leitung auf HIGH/LOW steht (geladen/entladen ist) haben wir eine höhere Latenz. Wenn der Speicher größer wird, wird unsere Fläche größer und somit die Leitungslängen zu den Speicherzellen. Deshalb muss das Verhältnis zwischen Größe und Performance gut durchdacht werden. Da beim Auf-/Entladen Ladung bewegt wird, wirkt sich das auch auf Stromverbrauch und TDP aus. größerer Chip -> längere Leitungen -> größere parasitäre Kapazitäten -> hohe Latenz -> mehr Strom -> mehr Wärme. Und nebenbei großer Chip -> weniger Stück pro Fläche -> teuer :D. Man sollte aber auch die hohen Schaltfrequenzen nicht außer acht lassen, da entstehen sehr schnell Antennen wo man keine will.
Es wurde aber auch schon mal erwähnt, dass im kleinen einstelligen NM-Bereich unerwünschte Quanteneffekte entstehen! Könnte man die CPU's nicht einfach ersteinmal etwas größer fertigen ⁉️Zumindest in PC's und Co gibt's ja mehr als genug Platz!
Naja ich warte lieber auf die Photonen CPUs. Das verspricht deutlich mehr Leistung und wird bei weitem nicht so heiß. Große Investitionen von mir in das Geschäft sind auf jeden Fall geplant ;)
Ich halte den Licht Pc für wahrscheinlicher und bei weitem hübscher aber nachdem man jetzt schon Highend gaming ohne Hardware vor Ort btreiben kann könnte der Trend auch dahin gehen das es zentrale Prozessorfarmen geben wird was mit 5g dann auch keine Latenzprobleme mehr verursacht ,allerdings würde mir die immer grössere Abhängigkeit und Bevormundung dann schon grosse Sorgen machen,nun hoffen wir das beste und befürchten das schlimmste ;- )
Warum ist eigentlich noch niemand auf den Rohstoff Wasser gekommen? ZB für Speichertechnologien oder Datenübertragung. Laut Millionen von Homöopathen Weltweit kann man im Wasser doch prima Informationen speichern. Man sollte sich dieses geheime Wissen endlich zu Nutze machen!
@@Officialnorio Wollte es erst im örtlichen Dialekt schreiben,aber da die wenigsten Bayerisch-Schwäbisch verstehen oder lesen können,wär's nur für die wenigen die's sprechen und lesen können,noch lustiger gewesen.PS:Dei Kanal isch sup'r!
Ich glaube, das man die jetzige Technik schon ziemlich ausgereizt hat. Allein das was AMD macht, mehrere Chiplets zu einer CPU zusammen kleben, spricht eigentlich dafür das man sich immer näher der Grenze nähert. Quantencomputer stecken noch in den Kinderschuhen und wären für den Privatanwender nicht praktikabel. Die Optronik wäre da vielleicht eine interessante Alternative
Photonen sind definitiv vorzuziehen, und das wichtigste hast du nicht erwähnt. Photonen werden NICHT warm.^^ Verstehe sowieso nicht warum kein Chiphersteller ernsthaft mit der Photonen Variante arbeitet. Wollen sie erst noch den alten Scheiß komplett ausreizen ?
Also ich finds teilweise absurd, wieviel rechenleistung ein Smartphone mittlerweile hat. Die große Mehrheit benötigt diese Leistung nicht mal. Gut, vllt bei entsprechend leistungshungrigen Spielen, aber auch das hält sich noch im Rahmen....Wobei ich persönlich es lächerlich finde, auf dem Smartphone überhaupt zu zocken. Dafür hab ich meinen PC, andere haben Konsolen und einen brauchbar-großen Monitor.... noch mehr Leistung benötigt kein Smartphone für die große Mehrheit... Die meisten nutzen diese Leistung ja jetzt schon nicht mal ansatzweise aus. Was soll den ein Smartphone bitte noch alles können?! Dementsprechend könnten da die Chips bleiben, wie sie sind oder man feilt weiter am Energieverbrauch und/oder der Wärmeabgabe.
Schwefel, Bismut, Licht... was wird sich durchsetzen? Was ist am billigsten? Das ist wahrscheinlich der Hauptgrund für die Entscheidung der Industrie, denn obwohl das eine Pferd viel besser ist, setzt man auf das andere, weil es am Tag 1kg weniger frisst und es auf Dauer billiger ist. Außerdem kann man ja die eine Technik vollkommen ausreitzen und kräftig dran verdienen und dann als Revolution zu der anderen wechseln und wieder kräftig verdienen. Also warum 1x wenn man auch 2x verdienen kann?
Nimm ein Thema, dass auf Hoffnung basiert. Füge schöne Bildsequenzen ins Video ein. Und sag am Ende ,,Aber es gibt noch riesige Probleme und es muss weiter geforscht werde''. Na Danke... Clickbait auf höchstem Niveau👏
Schade, dass das die Essenz ist, die du aus dem Video ziehst und nicht, dass die Forschung an sich mega interessant ist. Ich persönlich finde allein schon den Gedanken genial, dass wir die Größe von Transistoren mithilfe von Schwefel-Molybdän-Verbindungen unglaublich reduzieren können. Was genau daraus wird, können wir halt noch nicht sagen. Das macht die News aber nicht weniger relevant. Besonders dort, wo wir um kleine Chips nicht herumkommen, wird so eine Technologie irgendwann Nutzen finden. Wenn nicht mit Schwefelverbindungen, dann vielleicht mit anderen Halbleitern. Mein Ziel war ein Einblick in die Forschung rund um Halbleiter der Informatik zu geben. Ich denke, dass mir das gelungen ist...
@@Officialnorio Deine Antwort ist leider nur halb richtig. Richtig ist, dass du auf jeden Fall einen Einblick in die Forschung der Halbleitertechnik gegeben hast, dein Titel hat jedoch versprochen, dass es um eine Technologie geht, die alle CPUs übertreffen, wobei du dann im Laufe des Videos sagst, dass Schwefel zwar die Transistordichte um das 800 Fache erhöhen kann, aber um ein vielfaches schlechter Strom leitet und dazu die ersten Prozessoren nicht so Leistungsstark sein werden, wie aktuelle Silizium-CPUs. Damit hat deine Aussage, das Gegenteil vom Videotitel ausgedrückt, was ich ebenfalls als Clickbait bezeichnen würde. Ganz nebenbei gefragt, wenn Schwefel die Transistorendichte um ca. das 800 Fache erhöhen kann und bei Silizium aktuell bei 3nm Schluss ist (gehen wir mal nur von 7nm aus, bei dem Vergleich), dann wären das 0,00875nm, respektiv 8,75 picometer, was mehr als schwer sein dürfte mit einem Wafer in irgendeiner Art und Weise herzustellen, egal ob klassischer Wafer oder EUV, da wir ja schon bei 3/5/7/10nm zum Teil heftige Probleme haben, siehe Intel mit seinen 10nm, die noch immer keine zufriedenstellende Ausbeute haben, dafür aber Qualitativ deutlich besser sind (Kleiner), als bei AMD mit ca 7-5nm. Und nebenbei Bemerkt, beziehen sich die heutigen Angaben bezüglich der Größen eigentlich rein auf die Transistoren vom Cache und nicht dem eigentlichen CPU-Kern, der ist in der Regel größer/gröber, weil es ansonsten zu viel Ausschuss geben würde und es ist auf keinen Fall möglich, ohne weiteres noch größere CPU-Chiplets herzustellen, da ansonsten die CPU sich selbst verbrennen würde. Je größer die Oberfläche des eigentlichen DIEs wird, desto konzentrierter und größer ist die Wärmeentwicklung/Abwärme und diese kann dann nicht mehr Kompensiert/Abgeführt werden, was zum Tod jeder CPU führen würde. Ich hoffe ich habe die richtigen Bezeichnungen genutzt. Bin zwar Informatiker, aber manchmal fehlen mir die korrekten Begriffe/Erklärungen, ich Antworte aber gerne bei Nachfragen :) Falls ich was vergessen haben sollte, fragt gerne nach und einen angenehmen Rutsch ins neue Jahr :D
@@KidCe. Exakt! Früher musste man sich nich gedanken machen wie man software optimal schreibt. Heute muss alles nur mehr schnell in der entwicklung sein, die runtime wird eigentlich immer außenvor gelassen. Oft schießt man dann noch komplett den vogel ab mit millionen von unnötigen 'features' die dann noch die restliche performance fressen
Ich warte auf "DEN CPU", der per Knopfdruck alles in weniger als 0,000000000000000001 QuantenMilliMilliQuatroSekunden errechnen kann. Damit wären wahrscheinlich Lichtgeschwindigkeiten möglich sowas wie, "CPU" muss schneller sein, als man denkt, um diese überhaupt im Anspruch zu nehmen ...
Hammer Videos und sehr angenehme Stimme. Weiter so.. 👍🏻
Vielen Dank :)
Ohne Kanäle wie deine wäre meine Hoffnung in die Zukunft der Menschheit schon lange den Bach runter gegangen 😄
Erfährt man sonst kaum in Medien. Immer nur, was schief läuft.
Das nächste Video bitte mit 1800x
@@Mozillaa55 Warum? Um darauf Among us zu daddeln oder die Xte-Kryptowährung gegen die Wand zu fahren?
@@christianmontagx8461 bingooo
dann hast du einfach keine medienkompetenz. ich kugg kein tv nur news von caro matthie, tim kellner etc. beste leben
Dann konsumierst Du wohl die falschen Medien, lieber Ta'Uri. Norios Content ist mir dann doch leider zu oft bisschen overhyped. Aber das gehoert wohl zum UA-cam Game.
Das Problem wäre bei grösseren Mikrochips neben dem Fakt, dass sie nicht reinpassen auch, dass die Herstellungskosten sich erhöhen würden.
Und Fehler könnten pro Mikrochip dann auch noch häufiger auftreten, welches somit auch mehr unbrauchbar machen würde (es gibt bei Parallelen Einheiten wie CPU-Kerne, Cache usw. zwar eine Möglichkeit, dass man nur den Teil deaktiviert und der Rest funktioniert, allerdings ist das keine Lösung für jede Anwendung).
Eine Lösung würden zwar Multichip-Module geben (Die Ryzen 3000er und Ryzen 5000er Desktop-Prozessoren nutzen das tatsächlich), allerdings wären bei Fällen wo hohe Bandbreite nötig wären Interposer (heruntergebrochen eine Art sehr, sehr, SEHR feines PCB) notwendig, welche die Kosten steigen würden (Wurden tatsächlich bei den Radeon R9 Fury & Radeon RX Vega Karten bereits eingesetzt und werden im professionellen Bereich auch eingesetzt, damit die HBM-Module mit der GPU verbunden werden können).
Trotz der Lösung von Problemen, welche durch grosse Mikrochips entstehen, würden grosse Chippakete immer noch viel Platz von den Wafern belegen. Und die herzustellen ist aufwändig. Automatisierbar aber aufwändig.
Die Kosten vom Aufbau solcher Fabriken steigt stetig an, da die feineren Lithographien immer höhere Anforderungen haben, wodurch die Kosten der Wafer auch stark gestiegen sind.
Dazu brauchen wir auch noch immer mehr Mikrochips, weil die Nachfrage stetig steigt (alleine IoT, von den smarten Autos und den immer leistungshungrigeren Programmen ganz zu schweigen)
Kurzgesagt: Die Technik die wir haben wird in der Verbesserung immer ineffizienter im Preis/Leistungsverhältnis. Daher wird es langsam Zeit, dass wir neue Technologien brauchen, welche die Alten ablösen. Diese Phototransistoren haben tatsächlich das Potenzial dazu. Ich bin aber skeptish gegenüber dem TMD-Transistor, zumindest im Kontext von Hochleistungschips. Könnte aber was werden bei I/O-Controllern, wo es nicht auf die Latenz so stark ankommt.
Quelle zu den gestiegenen Kosten: cset.georgetown.edu/wp-content/uploads/AI-Chips%E2%80%94What-They-Are-and-Why-They-Matter.pdf Seiten 12, 13, evtl. 43, 44
Dokument ist generell interessant, da es die Kosten & Verbesserungen der Lithographie ganz gut zusammenfanssend zu sein scheint (hab jetzt aber nicht alles gelesen, um ganz Ehrlich zu sein)
Hast du das alles selber geschrieben😳
@@svenomin3228 Den Kommentar habe ich selber geschrieben.
@@Technicellie schön das sich wenigstens einer vom Galileo Niveau abhebt. Und Du gibst sogar Quellen, in Gegensatz zu anderen.
Zunächstmal bezieht sich Moors Law übrigens ursprünglich auf die in Bezug auf die Kosten optimale Zahl von Bauelementen pro Chip. Das bezieht sich auf die Tatsache, das bei Chips mit wenigen Transistoren die Kosten für das Handling und die Verkapselung überwiegen und bei zu großen Chips die Ausschußrate hochgeht. Die physikalische Größe der Chips ist nur selten ein Problem.
"Die Technik die wir haben wird in der Verbesserung immer ineffizienter im Preis/Leistungsverhältnis."
Das ist kompletter Unfug. Die Verbesserung bezieht sich ja gerade auf das Preis/Leistungsverhältnis.
Ein Problem ist aber die Skalierung. Der Preis pro Fabrik steigt, was bisher durch mehr Produktivität der entsprechenden Fabrik ausgeglichen wurde. Sprich die Fabrik kostet mehr, produziert aber auch entsprechend mehr, Preis Leistung stimmt also. Preis Leistung der Produkte wird noch mal besser.
Allerdings steigt der Preis pro Fabrik schneller als der Markt. Das führt zunächstmal dazu das es weniger neue Fabriken gebaut werden, die aber jeweils mehr produzieren. Der höhere Ausstoß einer einzelnen Fabrik hat aber eine Grenze, da sie zu den Punkt kämen, bei den eine einzelne Fabrik sehr viel mehr produzieren könnte als insgesamt auf der Welt nachgefragt wird.
Das bedeutet, das es ab einen bestimmten Punkt die bisherige Entwicklung unwirtschaftlich wird.
@@vornamenachname2625 Die Verbesserung der Lithografien bezieht sich nicht primär auf das Preis/Leistungsverhältnis, sondern auf den Leistungszuwachs sowie auf die Verringerung des Stromverbrauchs
Was die ineffizienz im Preis/Leistungsverhältnis angeht: Ich meinte dort vorallem, dass das Preis/Leistungsverhältnis schleppender sich verbessert. Die Verringerung des Preis/Leistungsverhältnis stagniert also, so wie ich das sehe.
Ich beziehe mich bei folgendem auf die Tabelle in Seite 43/44 in jener Quelle im ursprünglichem Kommentar.
Ich will hier die Kosten pro Transistor veranschaulichen, mithilfe des Preises pro Chip in equivalenter Menge an Transistoren in den Wafern, welche in der Tabelle angegeben sind:
90nm: $2'433
65nm: $1'428
40nm: $713
28nm: $453
20nm: $399
16/12nm: $331
10nm: $274
7nm: $233
5nm: $238
bei den Lithografien 90-28nm sinken die Kosten pro chip ziemlich stark, von Lithografie zu Lithografie, aber ab 20nm stagniert die Senkung sichtbar. währenddessen die Kosten pro Chip von 65nm zu 40nm etwas mehr als halbiert wurden, sinken die Kosten von beispielsweise 28nm zu 20nm um nicht einmal 1/4 Die Kosten pro Chip in 5nm sind sogar geringfügig gestiegen, da es aber eine ziemlich neue Lithografie ist, würde ich es nicht weiter beachten. (Sorry wegen dem langen Kommentar, ich würde mir wünschen, wenn es gerade eine Tabellenfunktion gäbe...)
Dadurch, dass der Preis pro Transistor immer weniger sinkt, ziehe ich daraus, dass wir inner ineffizienter werden, in der Entwicklung vom Preis/Leistungsverhältnis. Die Kosten sind auf dem Weg die Verbesserungen zu überschatten. Logisch, denn je näher wir an die Grenzen kommen, desto schwieriger und aufwändiger ist es, Verbesserungen zu erzielen.
Was die Produktion bei den Fabriken angeht: Wenn du dich auf die Menge an Transistoren beziehst, würde ich dir zustimmen. Eine Fab, welche Wafer auf einer 28nm-Lithografie produziert, wird weniger Transistoren bei der gleichen Menge an Wafern produzieren können, als eine Fab, welche Wafer auf einer 7nm-Lithografie produziert.
Aber man darf nicht vergessen, dass die Chips auch immer komplexer werden und immer mehr Transistoren brauchen, um bessere Leistung erzielen zu können. Alleine dadurch steigt die Nachfrage nach Transistoren rasant an. Dazu kommt dass die Welt digitaler wird und unsere Umgebung immer smarter wird, Stichwort IoT. Klar, IoT braucht nicht wirklich Leistung bei den Chips, aber sie brauchen richtig, RICHTIG viele von denen. Ich rede von einer Zukunft, wo jeder Jogurtbecher einen kleinen Chip hat, damit der Kühlschrank weiss, was für Produkte in dem sind.
Und wir haben da noch gar nicht davon geredet, was die Stagnierung bei den Kostensenkungen pro Transistor für eine Auswirkung hat, bei den CPUs und GPUs, welche immer mehr brauchen. Kurzgesagt: Die gesalzenen Turing-UVPs und die krassen Preise durch die Knappheit der jetzigen Generation, scheinen erst der Anfang zu sein...
Coreteks hat dazu auch ein Video gemacht, welches mir ziemlich gut gefällt: ua-cam.com/video/jD1XGJEUvzA/v-deo.html
heftig gutes Video - extrem gut geschnitten und mega spannend synchron gesprochen und informativ!
Vielen vielen Dank :)
Erst akademische, dann militärische und dann vielleicht in ein paar Jahren kommerzielle. 😉
Ja! Und je nach Technologie ist Ersteres und Zweiters vertauscht :D
Wie immer ein super interessantes Video. Mich würde aber mal interessieren was für Hard- und Software du so benutzt (Betriebsystem und schneiden) und ob du vor hast live streams zu machen.
Und wie immer mit leichten Fehlern / eigentlich schon "alte" Infos...
In diesem Fall wird z.B. das Moor'sche Gesetz falsch dargestellt... da geht man von "ca. alle 2 Jahre verdoppelt sich die Rechenleistung" aus und nicht "zwischen Monaten und Jahren"....
Und es wird auch nicht nur vermutet, das es eine maximale Elektronengeschwindigkeit gibt, sondern sie wurde je nach Leitungsmaterialien ausgemessen und beträgt z.B. bei Kupfer ca. 1/10 mm je Sekunde, wie man in einem Physik Kurs der Mittelstufe gelernt haben sollte!
Es gibt die Geschwindigkeitsvorteile der letzten Jahrzehnte hpts. nur dadurch, das man die Wege der Elektronen "verkürzt" durch z.B. kleinere Technologien (mm => nm => um) sowie die Anbindungen zum Speicher (=> CPU onboard Cache, der immer größer wird.), vervielfachung der Kerne/Hyperthreading und die Spannung reduziert wurde (ohne daraus resultierende Rechenfehler) , um weniger Abwärme zu erzeugen, wodurch man die in den 90-er Jahren errechnete maximale CPU Taktung von ca. 2,78 GHz auf über das 2fache bei "normaler Nutzung und über 3-fache bei Helium Kühlung herausholen kann...
Und damit ist die Clickbait Aussage, das Schwefel Prozessoren mehr als das 800fache an Geschwindigkeit zurücklegen können, extrem unwahrscheinlich... denn die "externe Kommunikation" kann nicht schneller werden...
@@Reiner030 Genau das hab ich mir auch gedacht...
Ich finde deine Videos richtig interessant hab dich erst heute gesehen und direkt gefolgt! richtig nice geschnitten
PS: Ich hab jedes zweite Wort nicht verstanden weil ich gar keine Ahnung davon hab lol^^
Mach weiter so, bin seit dem du 5k abbos hast - deine Videos sind echt der hammer
Damals zum Mund sind sie mit:
1 Mhz Prozessor und 4 kilobyte Ram. Du hast recht, jedes Handy ist heut viel stärker aufgestellt. Aber selbst Waschmaschinen der letzten Jahre haben bei weitem mehr Rechenleistung. Dennoch beeindruckend, was damals mit diesen Rechnern gleistet worden ist.
Tolles Video, das Thema kannte ich so noch gar nicht. Vielen Dank für die Aufbereitung!
Liebe solche Videos. . Liebe technik und als was umgeht
Wieso mischt man beides nicht ? Macht doch Sinn oder ? Strom fließt teilweise genau so gut und man kann mehr verbauen oder stell ich mir das zu einfach vor ?
1:46 wo kommt dieses Periodensystem her? ich mein der Fehler das Ordnungszahl 14 Zeichen Si und Name "Hydrogen" (Wasserstoff) ist ist grade in diesem Video Urkomisch, aber wie und wo kam es zu diesem Fehler?
Gut aufgepasst!
Du machst ohne scheiß die Besten Videos überhaupt.
Wow, danke dir :D
Das freut mich zu hören!!
Als jemand der 10 Jahre in Halbleiterei war kann ich sagen, große Chips sind unbezahlbar. Man hat pro Silizium Wafer x Fehler. Wenn jetzt der Chip zu gross wird steigt auch die Wahrscheinlichkeit das sehr viele der Chips von einem Wafer kaputt sind. Zu der Zeit wo ich in der Halbleiterei gearbeitet hatte, war alles über 2 qcm unbezahlbar für "normale" Endkunden.
Erstens Silizium basierte Prozessoren können kleiner als 5 nm sein(TSMC prodoziert ab 2023 wahrscheinlich 3nm(Silizium basiert)). Zweitens ist die Größe der Chips nicht durch die Größe des Gerätes sondern durch die Latenz im Chip begrenzt, welche bei zunehmender Größe Problematisch wird.
N5 und N3 usw. sind Marketingnamen. Man könnte sicherlich mit derzeitigen mitteln den Gate Pitch/Length oder bestimmte Abstände an 3nm annähern, aber tatsächlich ist keine beestimmbare Struktur in den aktuellen Fertigungen "3nm" groß. Die Foundries haben auch Tabellen zu den tatsächlich möglichen physischen Elementgrößen.
Hinzu kommt, dass nicht jeder Chip die maximale Packdichte die der Prozess ermöglicht auch ausnutzt. Ein GPU Chip und ein auf dem gleichen Prozess gefertigter CPU Chip können sich in der Transistordichte massiv unterscheiden. Das kann verschiedene Gründe haben, denn es kommt unter anderem darauf an, welche Schaltungen genutzt werden. SRAM Zellen (Cache) bspw. lassen sich schwieriger skalieren im Vergleich zu Logik-Gattern (CPU-Cores). Auch kann ein Grund die gewünschte Taktung des Chips sein. "Weitere" Designs lassen oft mehr Takt zu, je nach Pipeline und Core Design. Das heißt unterschiedliche Chips auf dem gleichen Fertigungsnode können sich in der Anzahl der genutzten Transistoren pro Quadratmillimeter (Packdichte) stark unterscheiden. Immer eine Frage dessen, was der Entwickler des Chips als Zielsetzung hat. Es bleibt aber dabei, das ein N7, N5 oder N3 Prozess eher keine Elemente mit einer größe von exakt 7nm, 5nm oder 3nm in den Chip bringt. Tabellen für eine grobe Idee findet man beispielsweise hier: en.wikichip.org/wiki/7_nm_lithography_process
Es ist übrigens genauso physikalisch falsch, wenn man sagt man könne Transistoren nicht kleiner als 5nm fertigen. Selbst als tatsächliche physikalische Größe reicht tatsächlich ein einzelnes Atom. Wie Praxisnah dies für eine Serienfertigung zu einem sinnvollen Preis ist, sei dahingestellt. Physikalisch ist die Behauptung aber schlicht falsch, wie nachgewiesen wurde: www.scinexx.de/news/technik/kleinster-transistor-der-welt-hat-nur-ein-atom/
Was die Latenz betrifft, hast du sowohl in der Planaren als auch der 3D Fertigung bzw. FinFet recht. Allerdings geht man deswegen zum gestapelten Packaging. Man baut also "nach oben", weil die Signalwege ab einer gewissen Fläche nach oben einfach immernoch kürzer werden, als weiter in die "Breite" zu bauen. Latenzen hängen aber nicht ausschließlich an der reinen Fläche/Weg des Signals, sondern auch an möglicher Taktung. Ein 5GHz CPU Kern nützt dir nichts, wenn die SRAM Zellen (Cache) bei (gesponnen) 100MHz dicht machen, dann Taktet zwar der Kern hoch, wartet aber dauernd auf Arbeit. ^^ Das ist ein komplexes Feld und wird oft viel zu "pauschal" betrachtet. Da steckt noch eine Menge mehr dahinter und je nachdem, welches Ziel der Chipdesigner erreichen will, kann es durchaus sein, dass ein gleich großer Chip in 5nm weniger Transistoren hat als ein anderer in 7nm, der aber einen anderen Zweck als Ziel hat. (viel Cache, wenig Logik/wenig Cache, viel Logik, simpel ausgedrückt). Dennoch kann es aufgrund der meist geringeren nötigen Schaltspannung von Transistoren in neueren Nodes durchaus Sinn machen, die CPU ohne Flächengewinn auf dem kleineren Node zu fertigen.
@@VPGTube Vielen Dank für deine sachliche Antwort und Aufklärung. Ich dachte die nm Angabe der Prozesse sei "korrekt", obwohl ich es bereits komisch fand das Intels 10nm Prozessor ungefähr die selbe Transistoren pro Quadratmillimeter wie TSMCs 7nm haben soll. Ich wusste bisher nicht von der "Inkorrektheit" dieser Angaben bzw. die Richtige Bedeutung(ua-cam.com/video/_wAeL3f3iV4/v-deo.html (ab 15:30))
@@chaos_teo6791 Kein Problem. Gerne. 👍🙃
Sehr interessant, danke für deine Mühe! 💪
wieso stand im thumpnail 800x schneller obwohl im video erklärt wird das schwefel cpus langsamer sind?
Der Geschwindigkeitsvorteil bezieht sich auf die gewonnene Transistordichte. Ob der Chip wirklich durch die Stromflussgeschwindigkeit langsamer wird, ist ungewiss
ziemlich gutes video, allerdings gibt es doch schon 2 nm silizium chips die funktionieren? glaube tsmc baut die sind aber noch nicht in pc chips verbaut soll glaub ich erst so in 2 jahren passieren, gut aber wie die fehlerrate ist weiß ich nicht
Was ist mit dem Tunnel-Effekt als begrenzten Faktor?
Das Moorsche Gesetz führt übrigens dazu, das es komplett neue Technologien sehr schwer haben. Am ehesten fassen neue Technologien bei neuen Anwendungen Fuß. Geringere Taktraten und dafür höhere Integrationsdichten sind gerade bei CPU's überhaupt nicht gefragt. Da ist eher das Gegenteil z.B. in Form von Galliumarsenid interessant. Insoweit ist das der völlig falsche Zielbereich. Eine Zuverlässigkeit von 99% heißt übrigen das man bei einen Schaltkreis mit 69 Transistoren 50% Ausschuss hat.
Super Video! Das Potential von Analogcomputern ist auch noch gigantisch
Im Ernst? Bin da eher skeptisch. Digital ist einfach besser
Was ist aus dem Ansatz geworden 3/5 Halbleiter wie Gallium Arsenik zu verwenden. Zu meiner Studienzeit 87/93 war das der heiße Favorit beim Ablösen von Silizium. Danke für das coole Video. Habe auch Elektro-Optik vertieft und Photonic war auch schon ein Thema...leider habe ich beruflich das Wissen nicht anwenden können.
"Zu meiner Studienzeit 87/93 war das der heiße Favorit beim Ablösen von Silizium."
Und bis jetzt rennt Silizium GaAs im Mainstream davon. Klar gegen die heutige verfügbare GaAs Technologie hätte die Siliziumtechnologie von 93 nicht den Hauch einer Chance. Solange sich die Si Entwicklung aber nicht verlangsamt ist sie aber kaum.
Wie geht das, dass die Transistoren noch kleiner sind als die aus Silizium? Wir sind doch schon nahe an der atomaren Grenze bei den herkömmlichen Transistoren.
Deine Videos sind immer sehr interessant, mir aber manchmal etwas zu hoch... 🙈
Das ist mega tolles Feedback!
Dann weiß ich nun, dass ich in Zukunft vielleicht die Inhalte etwas leichter zugänglich gestalten sollte.
Kannst du mir sagen was für dich etwas zu kompliziert war? :)
@@Officialnorio Einerseits sind viele Themengebiete auch auf längeren Zeitraum betrachtet sehr interessant, auf der anderen Seite würde ich gerne mehr wissen, womit ich in näherer Zukunft rechnen kann. Akkus, Technologien, etc.
Was mir zu kompliziert war, kann ich dir jetzt nicht genau sagen, sorry. 🙂
@@Officialnorio Finde die Themenauswahl sehr gut und auch das Niveau der Erklärungen... hier und da kann man durchaus noch tiefer ins Detail gehen... Bin aber soweit voll und ganz zufrieden ;) Gruß
Ah Zensur. Wieso bloß.
@@Soulleey Ich finde auch, dass manchmal mehr Details gut wären. In dem Video war ich aber zufrieden.
Vereinfachen würde ich die Themen nicht, da würde die Qualität leiden!
Für manche Dinge braucht man eben ein gewisses Wissen schon im Vorhinein, um sie zu verstehen.
Klingt vielleicht hart, aber wer diese Vorwissen nicht hat, hat Pech gehabt und sollte später wieder vorbei schauen, wenn er schon mehr erfahren hat über ein Thema.
Ich schaue auch immer wieder mal Videos über Quantentheorie (ja, die sind mir zu hoch 🙂) aber das ist mein Problem. Die Lage bessert sich mittlerweile und ich verstehe in alten Videos Dinge, die ich vor einem Jahr nicht verstanden habe.
Tolles professionelles Video!
Vielen Dank :)
Interessant auf jeden Fall. Das Bild der Schwefelmine zeigt aber auch das Problem. Der Schwefelabbau ist ein weiteres riesiges Problem, das man berücksichtigen muss. Aber das ist ein anderes Thema.
Hat der neue Snapdragon Prozessor nicht 4 nm?
Warum werden dann schon 4 und 3nm CPUs angekündigt?
Sehr gute Videos, weiter so!
Dankeschön :)
Na das war echt richtig interessant. Krass mega gutes Thema. Und sehr gut vorgetragen. Mein Respekt.
@Norio Bei Si steht bei 1:45 "Hydrogen" das ist falsch! ansosnten hat Schwefel echt potential :)
ich habe gehört, 2nm (Silizium) sind durch eine "3Fach-3D-Stappelung" möglich und um ca. 2035 serienreif?
Eine Frage, wenn nur eine gewisse Anzahl von Transistoren auf einen Chip passen, wiso macht man den Chip nicht einfach größer?
Ich glaube, weil die wege der transistoren sonst viel zu lang wäre und somit ein größerer Chip keinen vorteil bringen würde.
Ich atme jeden Jahreswechsel also potentiellen Halbleiterstoff ein?
Ich weiß nicht ob es noch jemand bemerkt hat aber bei 1:49 steht unter Si (Silizium) „Hydrogen“ Chemie ist bei mir zwar ne Weile her aber das ist definitiv falsch. ;-)
Absolut. Da hat sich ein Animationsfehler eingeschlichen 😂😅
Ist mir auch nur aufgefallen weil ich schauen wollte wo Schwefel im Periodensystem ist 😀
Ansonsten interessantes Video. 👍
Wie immer starkes Video
Der Lichttransistor hat aber auch einige erhebliche Nachteile. Der größte ist bisher die Größe der Struktur. Diese hängt stark von der Wellenlänge des Lichts ab und ist oft über 1um groß.
Da Photonen zur Gruppe der Fermionen gehören und eine schwache WEchselwirkung aufweißen, wobei Elektronen hingegen eine starke Wechselwirkung nutzen, ist es unwahrscheinlich, dass wir zur den elektronischen Transistor durch den photonischen ersetzen. Photonen haben aber zb bei der Übertragung von Daten erheblich Vorteile. Ich glaube in 10 Jahren wird man wie eine GPU einen optischen Chip haben der den klassischen PC ergänzt.
Mit allem Respekt, aber das ist kein Problem der Informatik sondern ein Problem der Ingenieurskunst. Wenn es dann mal einen solchen Prozessor geben sollte, wird die Software darauf zum Problem von uns Informatikern. Wie entwickelt man dann eine KI, die nicht die Menscheit ausschalten will? Für KNNs ist es nämlich nicht von Interesse, ob sie auf schnellen Prozessoren ausgeführt werden, solange die Berechnung massiv parallel erfolgen kann, was dank Verkleinerung der Strukturen möglich sein wird. Menschliche Neuronen arbeiten auch nur mit 1KHz "Taktfrequenz".
Super Video!👍
Was kommt als nächstes wasserstoff technologie?
bei 1:00 liegt ein fehler vor. TSMC hat bereits 3 nm erreicht. Es gibt soweit ich weiss zwar noch kein marktreifes produkt aber eben die fertigungsanlage! Es heisst immer wieder das wir bereits am ende der fahnenstange angelangt sind, bislang war es immer eine Fehleinschätzung.
bis auf die Tatsache das die nm Angabe keinerlei Echtweltbedeutung mehr hat, stimmt das was du sagst, Intels 10nm (Intel 7) entspricht auch TSMC's 7 nm, die Angaben über die nm basieren auf dem Gesetz von Moore, und schrumpfen abhängig zur Transistoranzahl, da aber keiner sagen kann bei wie viel Micro- oder Nano- Metern die tatsächliche Transistorgrenze zu Anfang lag, sind solche werte nur Marketing um zu sagen "unsere Fertigung ist besser geworden"
Interresant, ich weis das es noch weit weg ist, aber die Zukunft gehört definitiv den Quantencomputer, irgendwann wird die Forschung soweit sein solche Computer zu bauen, und damit eine Revolution auszulösen die alles bisherige in den Schatten stellt, die Rechenkraft eines solchen Computers ist derart Astronomisch das heutige Rechner wie ein schlechter witz sein werden, würde man einen stabilen Quantencomputer mit nur 4 Quanten bauen, würde dieser schon mehr Rechenleistung besitzen als alle jemals gebauten und aktuel laufenden Rechner der Welt zusammen, die Welt würde einen Technologischen sprung der superlative erleben, wahrscheinlich wird dann auch KI einen derartigen sprung machen das wir uns überlegen müssen ob KI dann eine Lebensform darstellt.
Ich find’s ein bisschen weit hergeholt TMD (Transition-metal dichalcogenide (also ein Metal als der Mitte des PSEs wie Molybdän oder Wolfram und dazu ein Element, aus der 6. Hauptgruppe, die zusammen eine Kristallstruktur bilden, aus welchen man wie bei Graphen Monolagen machen kann))-basierten Transistoren als Schwefel-Transistoren zu bezeichnen.
Alles andere in diesem Video stimmt. Mit der Siliziumtechnologie kommen wir so langsam an die Grenze. Man kann es vielleicht noch etwas ausreizen aber dem Mooresche Gesetz gerecht zu werden wird mit Silizium nicht funktionieren.
Und zur Stromleitgeschwindigkeit -> von diesen Ladungsträgermobilitäten wie selbst bei TMDs geschweigenden bei einkristalienem Silizium können wir bei den organischen Halbleitern gerade nur träumen.
Silizium: Bis zu 1400 cm^2/Vs
TMDs: Bis zu 1000 cm^2/Vs
DNTT (organische Halbleitende Verbindung): Bis zu 5 cm^2/Vs.
Das ist aktuell die traurige Wahrheit.
Flexible/verbiegbare Handys, die nur aus Kohlenwasserstoffen bestehen, also ohne Stoffe wie Silizium, Gallium, Arsenit und bei den TMDs Molybdän und Wolfram auskommen. Die uns somit unabhängig von Importen machen würden.
Die brauchen noch Zeit.
Danke für die konstruktive Kritik!
Verstehe deine Ansicht. Allerdings wäre Schwefel-Molybdän-Prozessor ein sehr langer Titel ;)
@@Officialnorio "TMD-Transistor" verstehen wahrscheinlich eher weniger.
Vielleicht irgendwas mit Monolayer vielleicht?
"Transistoren mit Monolayer - aber ausnahmsweise mal nicht Graphen!"
Ich meine, TMDs haben nicht immer Schwefel dabei, z.B. Molybdän und Selen oder Molybdän und Telur oder Wolfram und Selen
@@Officialnorio Ich hab ganz vergessen dir ein schönes Neues Jahr zu wünschen
Interessantes Video. Muss allerdings sagen das es mittlerweile schon eine Weile CPUs auf 5nm in Smartphones gibt und diese noch auf 4nm runtergehen. Intel hat eine Technologie entwickelt um eine grosse von 20A und kleiner zu produzieren (zudem muss man auch sagen das sie eine komplett andere Transistor Technologie nutzen als bisher)
Das sind aber keine echten 5nm schau dir mal das Video von Der Nauer dazu an, es sind nur Produktionsnahen mehr nicht
Molybdän ist wohl der deutlich entscheidendere Rohstoff hier.
Nur so als Korrektur deines Videos TSMC ist schon bei der Herstellung 3nm Wafer und werden voraussichtlich 2023 im Handel sein.
Also stimmt nicht ganz mit 5nm verfahren geht nicht.
LG
Mehr widerstand wird mit mehr power kompensiert. Das problem wird dann sein, dass der Chip hops geht wie ein Streichholz. Bereits heute ist es schwierig, High-end chips zu kühlen. Ein nicht ignorierbarer Faktor für industrielle Grossrechner. Und für den Hausgebrauch eignet sich Flüssigheliumkühlung einfach nicht.
1:50 fällt euch hier im Periodensystem ein Fehler auf?
bei Si
Warum baut man nicht einfach größere CPUs um somit mehr Transistoren unterzubringen? Ok, die Leiterbahnen werden dann länger. Aber ich bezweifle dass dies ein Problem darstellt. Gibt es offizielle Statements darüber, warum man die Chips nicht einfach größer baut. Bzw. kennt sich jemand aus?
"Warum baut man nicht einfach größere CPUs um somit mehr Transistoren unterzubringen?"
Weil man nicht möglichst viele Transistoren in der CPU haben will, sondern eine möglichst schnelle CPU. Tatsächlich ist es extrem schwer mit mehr Bauteilen eine CPU (-core) schneller zu machen. Heute hat man viel mehr Platz auf den Chip als man für eine CPU braucht. Daher baut man heute gleich mehrere Kerne auf einen Chip.
Danke!
Vielen Dank für deine Unterstützung :)
... gibt doch schon 3 & 2 nano CPU´s durch horizontale Anordnung und via Bismut 1 nano. Liebe Grüße
was ist mit dem optischen Transistoren
Das Video dazu ist im Abspann verlinkt :)
Verstehe nur bedingt, wieso man da weiter forscht, denn neben der Optronik gibt es noch die genau so schnelle und stromsparenden Magnonik. Sie Arbeitet mit Magnetfeldern. Wo man weiter ist, weiss ich nicht.
nun ja, mit der Stromflussgeschwindigkeit steht oder fällt nun mal das gesamte Konzept, von daher sehe ich das erstmal nicht als vielverprechende Ablösung von Silizium-basierten Prozessoren :)
Richtig. Sowas ist halt in anderen Bereichen, insbesondere Speicher sinnvoll.
Schwefel Molybdän also Molybdänsulfid MoS2 ein klassischer Schmierstoff und der Name einer bekannten Ölmarke.
Super Video👍🏻
Du gehst davon aus, dass die Rechenleistung auch in Zukunft lokal da sein muss. Eine Entwicklung wie z.B. Stadia ist auch für andere Bereiche als Gaming vorstellbar und im Rechenzentrum ist CPU-Größe nicht Faktor Nummer 1.
Это просто фантастика!
ich sehe schon wie die CPU im wahrsten sinne des wortes in rauch aufgeht bei einem kühler-fail.
Und dann fließt eine Duftwolke nach faulen Eiern durch den Raum ;)
Ja das ist auch das Problem skip wirklich physikalische Gesetze die wir bald stoßen werden darum ist es eigentlich am wichtigsten eine Alternative zu finden
Und unterm Strich war das hier kompletter Murks und hat die Überschrift nicht erfüllt
Ich würde mir ein Video mit Bernd Ullmann wünschen.
Schwefel reagiert mit vielen Substanzen ganz super, ich will das nicht im Rechner haben. Es gibt viele Substanzen mit solchen Eigenschaften aber deshalb sind die nicht gleich geeignet.
Ist es nicht Sinnvoller die Technik von der Software aus soweit zu begrenzen das man es deutlich länger nutzen kann ? Mehr Leistung kostet auch mehr, wenn aber weniger gebraucht wird, ist es ein geringeres Problem. Spielekonsolen haben deutlich weniger Leistung als ein High End Rechner, liefern aber vergleichbare Ergebnisse. Das liegt daran das die Konsolen ein Betriebssystem haben das genau darauf ausgelegt ist, während es bei Windows usw. nicht so weit entwickelt ist.
Ich habe ein ein Pentium 4 Sockel 478 aus dem Jahr 2002. Ich kann immer noch mit Windows XP und dem Tor Browser damit heute Videos auf UA-cam schauen ( maximal 480 Pixel ). Die werden von jedem entsorgt, obwohl es durch optimierte Software möglich ist, diese deutlich effizienter nutzen zu können.
Das Problem ist einfach, das Silizium jetzt mehrere Jahrzehnte lang die Entwicklung mitgemacht hat. Jetzt müsste man prüfen ob Schwefel /Molibdän das ebenfalls schafft. Das bezweifle ich aber sehr
Naja, wie du schon sagst, Jahrzehnte. Die S/Mo Transistoren stecken ja quasi noch in den Kinderschuhen.
Ich finde jede Technologie sollte in den Grundlagen weiter erforscht werden, auch wenn sie nicht sonderlich erfolgreich/gewinnbringend erscheint.
Alleine durch die Forschung daran erschafft man Grundlagenwissen, das vielleicht anderswo auch sinnvoll eingesetzt werden kann.
@@HaasiAustria naja, stell dir vor man steckt da jetzt viel Arbeit rein obwohl man bereits abschätzen kann das diese Technologie nur für 2-3 höchstens 4 Prozessorgeneration etwas taugt. Bei allen Dingen wird eine Kosten nutzen Rechnung angeführt, wie will man jahrelange arbeit rechtfertigen?
@@awesomefan86 Glaubst du dass man das schon so genau abschätzen kann?
Es gibt ja auch nicht viele Alternativen.
Wenn ich zB an Kernfusion denke, da hätten wir vor Jahrzehnten schon damit aufhören müssen. Nicht mal jetzt ist es sonderlich aussichtsreich, dass das jemals rentabel wird und wir machen trotzdem weiter.
"Das Problem ist einfach, das Silizium jetzt mehrere Jahrzehnte lang die Entwicklung mitgemacht hat."
Jain. Was noch viel wichtiger ist, das diese Entwicklung ja noch weitergeht. Bestehende Technologien bringen Geld, so das für die Weiterentwicklung wiederum Geld zur Verfügung steht.
Gibt es einen Grund warum alles im kleiner und kleiner werden muss?
Warum CPUs nicht einfach größer bauen?
Erwähne ich im Video. Außerdem hat ein ziemlich toller, kritischer Kommentar noch auf den Materialaufwand aufmerksam gemacht.
Dafür kommen 3D Chips, zuerst 3D Stacking CPUs wie sie AMD mit Ryzen 9 in wenigen Wochen die 1. Modelle anbieten will und später wie bei flash derzeit mehrere Schichten direkt im Herstellungeverfahren!
Das Problem sind Leitungslängen und deren parasitäre (Blind) Widerstände. Ein Beispiel ist bei Prozessoren durch die hochgezüchteten Architekturen nach wie vor Speicher, meistens das schwächste Glied und auch wesentlicher Faktor der Performance. Die Architekturen sind oft so schnell, dass genauso schnell ein Mangel an Daten herrschen kann. Bei L1 Cache der nach Registern als schneller SRAM gebaut wird, muss man abwägen wie groß dieser sein soll. SRAM benötigt viel Chipfläche ist aber schneller und brauch keine MMU. Wenn nun die Länge der Datenleitungen wächst, entstehen dadurch unter anderem größere parasitäre Kapazitäten, d.h. bis die Leitung auf HIGH/LOW steht (geladen/entladen ist) haben wir eine höhere Latenz. Wenn der Speicher größer wird, wird unsere Fläche größer und somit die Leitungslängen zu den Speicherzellen. Deshalb muss das Verhältnis zwischen Größe und Performance gut durchdacht werden. Da beim Auf-/Entladen Ladung bewegt wird, wirkt sich das auch auf Stromverbrauch und TDP aus. größerer Chip -> längere Leitungen -> größere parasitäre Kapazitäten -> hohe Latenz -> mehr Strom -> mehr Wärme. Und nebenbei großer Chip -> weniger Stück pro Fläche -> teuer :D. Man sollte aber auch die hohen Schaltfrequenzen nicht außer acht lassen, da entstehen sehr schnell Antennen wo man keine will.
@@alexlienert5509 nice zusammengefasst 👌
Es wurde aber auch schon mal erwähnt, dass im kleinen einstelligen NM-Bereich unerwünschte Quanteneffekte entstehen! Könnte man die CPU's nicht einfach ersteinmal etwas größer fertigen ⁉️Zumindest in PC's und Co gibt's ja mehr als genug Platz!
Wahrscheinlich wäre es aber auch zu umständlich und teuer verschieden große Chips einzusetzen 🤷
Naja ich warte lieber auf die Photonen CPUs. Das verspricht deutlich mehr Leistung und wird bei weitem nicht so heiß. Große Investitionen von mir in das Geschäft sind auf jeden Fall geplant ;)
Also ist diese Technik besser für Server CPUs...
Bei Schwefel riecht man es dann auch wenn der Prozessor durch Hitze durchbrennt :D
Also AMD wird dieses Jahr vielleicht noch die 3 nm CPUs vorstellen im FinFET verfahren. Dann geht es wohl in Richtung Kohlestoffnanoröhrchen!
Ich halte den Licht Pc für wahrscheinlicher und bei weitem hübscher aber nachdem man jetzt schon Highend gaming ohne Hardware vor Ort btreiben kann könnte der Trend auch dahin gehen das es zentrale Prozessorfarmen geben wird was mit 5g dann auch keine Latenzprobleme mehr verursacht ,allerdings würde mir die immer grössere Abhängigkeit und Bevormundung dann schon grosse Sorgen machen,nun hoffen wir das beste und befürchten das schlimmste ;- )
1:49 Wusste gar nicht, dass man Silizium auch Wasserstoff nennt
Erstes Video von dir Gesehene und direkt abonniert.
Vielen Dank für die Informationen👍
Ich danke dir! :)
Ich freu mich schon auf das Overclocking, wenn es schön nach verfaulten Eiern stinkt.
Warum ist eigentlich noch niemand auf den Rohstoff Wasser gekommen? ZB für Speichertechnologien oder Datenübertragung.
Laut Millionen von Homöopathen Weltweit kann man im Wasser doch prima Informationen speichern. Man sollte sich dieses geheime Wissen endlich zu Nutze machen!
Ist das dein Ernst?
😂
@@alexthenr1019 Nein. 😀
@@HaasiAustria Ok, gut tu wissen😉
Bläst dann die CPU unter Last den Gestank von faulen Eiern aus den Lüftungsschlitzen?
😂😂😂 nein, zum glück nicht. Er liegt ja in einer festen Verbindung vor
@@Officialnorio Spass muss sei'!
@@Commentorist absolut. Musste definitiv bei der Vorstellung lachen!! 👍👍
@@Officialnorio Wollte es erst im örtlichen Dialekt schreiben,aber da die wenigsten Bayerisch-Schwäbisch verstehen oder lesen können,wär's nur für die wenigen die's sprechen und lesen können,noch lustiger gewesen.PS:Dei Kanal isch sup'r!
Nach nichts kommt nichts, was nicht kleiner geht kann nur verbreitert werden. Multiplikation meine Damen und Herren... ;) Sinnloses Video
Aber... Wie im Video erklärt geht es doch offensichtlich kleiner...
Ich glaube, das man die jetzige Technik schon ziemlich ausgereizt hat. Allein das was AMD macht, mehrere Chiplets zu einer CPU zusammen kleben, spricht eigentlich dafür das man sich immer näher der Grenze nähert. Quantencomputer stecken noch in den Kinderschuhen und wären für den Privatanwender nicht praktikabel. Die Optronik wäre da vielleicht eine interessante Alternative
Vielleicht wird man vermehrt Analogrechner einsetzen?
Wahrscheinlich hybridrechner? 🤨🤔
@@CUBETechie egal was kommt, es wird schwer werden etwas zu finden das so lange bestand hat wie das Silizium aktuell
1:49 Silizium hat den falschen Untertitel(Hydrogen)
Jap. Kleiner Animationsfehler
4:27 hört sich ja zu gut um wahr zu sein an, gibts ganz bestimmt ein hacken. gleich mal zum nächsten video :)
Photonen sind definitiv vorzuziehen, und das wichtigste hast du nicht erwähnt. Photonen werden NICHT warm.^^
Verstehe sowieso nicht warum kein Chiphersteller ernsthaft mit der Photonen Variante arbeitet. Wollen sie erst noch den alten Scheiß komplett ausreizen ?
ich finde die Überschrift übertrieben. Weil es das große ABER gibt.
Uff, so viele völlig aus dem Zusammenhang gerissene Pauschalaussagen, die so alleine stehend quatsch sind.
Also ich finds teilweise absurd, wieviel rechenleistung ein Smartphone mittlerweile hat. Die große Mehrheit benötigt diese Leistung nicht mal. Gut, vllt bei entsprechend leistungshungrigen Spielen, aber auch das hält sich noch im Rahmen....Wobei ich persönlich es lächerlich finde, auf dem Smartphone überhaupt zu zocken. Dafür hab ich meinen PC, andere haben Konsolen und einen brauchbar-großen Monitor.... noch mehr Leistung benötigt kein Smartphone für die große Mehrheit... Die meisten nutzen diese Leistung ja jetzt schon nicht mal ansatzweise aus. Was soll den ein Smartphone bitte noch alles können?! Dementsprechend könnten da die Chips bleiben, wie sie sind oder man feilt weiter am Energieverbrauch und/oder der Wärmeabgabe.
Schwefel, Bismut, Licht... was wird sich durchsetzen? Was ist am billigsten? Das ist wahrscheinlich der Hauptgrund für die Entscheidung der Industrie, denn obwohl das eine Pferd viel besser ist, setzt man auf das andere, weil es am Tag 1kg weniger frisst und es auf Dauer billiger ist. Außerdem kann man ja die eine Technik vollkommen ausreitzen und kräftig dran verdienen und dann als Revolution zu der anderen wechseln und wieder kräftig verdienen. Also warum 1x wenn man auch 2x verdienen kann?
Phototransistor wird die zukunft sein
Oder Analogrechner werden in vielen Bereichen mehrere Anwendungen bekommen
Genau Glas.
1:42 WTF warum steht bei Si *HYDROGEN* ?!?!?!
Animationsfehler 😂😂😂
3nm ist ohne Probleme bereits möglich
Nimm ein Thema, dass auf Hoffnung basiert. Füge schöne Bildsequenzen ins Video ein. Und sag am Ende ,,Aber es gibt noch riesige Probleme und es muss weiter geforscht werde''. Na Danke... Clickbait auf höchstem Niveau👏
Schade, dass das die Essenz ist, die du aus dem Video ziehst und nicht, dass die Forschung an sich mega interessant ist. Ich persönlich finde allein schon den Gedanken genial, dass wir die Größe von Transistoren mithilfe von Schwefel-Molybdän-Verbindungen unglaublich reduzieren können.
Was genau daraus wird, können wir halt noch nicht sagen. Das macht die News aber nicht weniger relevant. Besonders dort, wo wir um kleine Chips nicht herumkommen, wird so eine Technologie irgendwann Nutzen finden. Wenn nicht mit Schwefelverbindungen, dann vielleicht mit anderen Halbleitern.
Mein Ziel war ein Einblick in die Forschung rund um Halbleiter der Informatik zu geben.
Ich denke, dass mir das gelungen ist...
@@Officialnorio Deine Antwort ist leider nur halb richtig.
Richtig ist, dass du auf jeden Fall einen Einblick in die Forschung der Halbleitertechnik gegeben hast, dein Titel hat jedoch versprochen, dass es um eine Technologie geht, die alle CPUs übertreffen, wobei du dann im Laufe des Videos sagst, dass Schwefel zwar die Transistordichte um das 800 Fache erhöhen kann, aber um ein vielfaches schlechter Strom leitet und dazu die ersten Prozessoren nicht so Leistungsstark sein werden, wie aktuelle Silizium-CPUs.
Damit hat deine Aussage, das Gegenteil vom Videotitel ausgedrückt, was ich ebenfalls als Clickbait bezeichnen würde.
Ganz nebenbei gefragt, wenn Schwefel die Transistorendichte um ca. das 800 Fache erhöhen kann und bei Silizium aktuell bei 3nm Schluss ist (gehen wir mal nur von 7nm aus, bei dem Vergleich), dann wären das 0,00875nm, respektiv 8,75 picometer, was mehr als schwer sein dürfte mit einem Wafer in irgendeiner Art und Weise herzustellen, egal ob klassischer Wafer oder EUV, da wir ja schon bei 3/5/7/10nm zum Teil heftige Probleme haben, siehe Intel mit seinen 10nm, die noch immer keine zufriedenstellende Ausbeute haben, dafür aber Qualitativ deutlich besser sind (Kleiner), als bei AMD mit ca 7-5nm.
Und nebenbei Bemerkt, beziehen sich die heutigen Angaben bezüglich der Größen eigentlich rein auf die Transistoren vom Cache und nicht dem eigentlichen CPU-Kern, der ist in der Regel größer/gröber, weil es ansonsten zu viel Ausschuss geben würde und es ist auf keinen Fall möglich, ohne weiteres noch größere CPU-Chiplets herzustellen, da ansonsten die CPU sich selbst verbrennen würde. Je größer die Oberfläche des eigentlichen DIEs wird, desto konzentrierter und größer ist die Wärmeentwicklung/Abwärme und diese kann dann nicht mehr Kompensiert/Abgeführt werden, was zum Tod jeder CPU führen würde.
Ich hoffe ich habe die richtigen Bezeichnungen genutzt. Bin zwar Informatiker, aber manchmal fehlen mir die korrekten Begriffe/Erklärungen, ich Antworte aber gerne bei Nachfragen :)
Falls ich was vergessen haben sollte, fragt gerne nach und einen angenehmen Rutsch ins neue Jahr :D
Man bräuchte keine schnelleren CPUs wenn man Software nicht immer ineffizienter werden würde
Stimmt, der Datenzuwachs in Rechenzentren nimmt ja nicht zu oder so. Liegt nur daran dass die Software dort immer schlechter wird
@@KidCe. Exakt! Früher musste man sich nich gedanken machen wie man software optimal schreibt. Heute muss alles nur mehr schnell in der entwicklung sein, die runtime wird eigentlich immer außenvor gelassen.
Oft schießt man dann noch komplett den vogel ab mit millionen von unnötigen 'features' die dann noch die restliche performance fressen
Das hast du aber gefickt eingeschädelt! Vom Bismut Prozessor bis zum Lichtprozessor ;)
Silizium wird mit Siliziumdioxid ersetzt werden
Ab 1:40 min
Transistoren sind keine Ein Aus Schalter - Transistoren sind Transistoren
Vielen Dank für diesen qualifizierten Beitrag. Wenn ich das nächste Mal Transistoren erkläre, sage ich einfach "Transistoren sind Transistoren".
Ich warte auf "DEN CPU", der per Knopfdruck alles in weniger als 0,000000000000000001 QuantenMilliMilliQuatroSekunden errechnen kann. Damit wären wahrscheinlich Lichtgeschwindigkeiten möglich sowas wie, "CPU" muss schneller sein, als man denkt, um diese überhaupt im Anspruch zu nehmen ...
Nach CPU kommt der DEN der wird 2022 von Elon Vorgestellt, stell dir mal vor :D
Schwefelgeruch = faule Eier. Stinkt dann der PC? 😊
ich mag Schwefel :D
Quanten Rechner werden früher oder später die Zukunft werden.
Ist es dir verboten über graphen zu sprechen?
Für pc's wohl das interessanteste material gerade.