Exklusiv: Wir besuchen eines der modernsten Rechenzentren der Welt

Поділитися
Вставка
  • Опубліковано 28 кві 2024
  • Mehr Informationen zu Corsair DD5 Speicher:
    www.corsair.com/de/de/ddr5-me...
    ---------------------------------------------------------
    Unseren anderen Videos zum Thema IBM Power:
    ---------------------------------------------------------
    Spart 10% auf euren iFixit Einkauf: DER8AUER10
    store.ifixit.de/der8auer
    Pro Tech Toolkit: bit.ly/2JNspZz
    ---------------------------------------------------------
    Support me on Patreon:
    / der8auer
    ---------------------------------------------------------
    Meine Produkte bei Caseking:
    Delid Die Mate 2: bit.ly/2Rhv4y7
    Delid Die Mate X: bit.ly/2EYLwwG
    Skylake-X Direct Die Frame: bit.ly/2GW6yyC
    9th Gen OC Frame: bit.ly/2UVSubi
    Debug-LED: bit.ly/2QVUEt0
    Pretested CPUs: bit.ly/2Aqhf6y
    ---------------------------------------------------------
    Meine Ausrüstung:
    USB-Mikroskop: amzn.to/2QUJPHH
    Meine Kamera: amzn.to/2StEnrY
    (Affiliate Links: Wird über einen der Links gekauft, bekomme ich einen Teil der Einnahmen)
    ---------------------------------------------------------
    Music / Credits:
    Outro:
    Dylan Sitts feat. HDBeenDope - For The Record (Dylan Sitts Remix)
    ---------------------------------------------------------
    Bezahlte Inhalte:
    - Corsair DDR5 Werbespots
    Samples:
    - /
    ---------------------------------------------------------
    Timestamps:
    0:00 Intro
    2:27 Werbung
    3:01 Eingang Strom & Daten
    6:10 Wasseraufbereitung
    6:40 Niederspannungsanlage, USV & Notstromaggregat
    13:18 Stromverteilung
    16:18 Die Kühlung
    20:31 Radiatoren auf dem Dach
    22:19 Kühlung des Wassers
    24:02 Brandschutz
    29:16 Werbung
    29:54 Warum all die Redundanz?
    32:47 IBM Power10, Nodes & Controller
    34:04 Wartung nur durch IBM
    37:25 Der Power10 im Detail
    39:30 Warum IBM Power?
    41:41 x86 Rack-Server & Blade-Server
    44:28 Werbung
    45:00 IBM Mainframe Z15 & Datenspeicherung
    51:14 Die Effizienz eines Rechenzentrums
    52:32 Outro
  • Наука та технологія

КОМЕНТАРІ • 1,2 тис.

  • @hausmaus5698
    @hausmaus5698 2 роки тому +2105

    Da Bielefeld offiziell gar nicht existiert, sind die Server schwer auffindbar und somit sehr gut gesichert. Ziemlich schlau von denen.

    • @glorysynex
      @glorysynex 2 роки тому +75

      Die haben alles sehr genau durchdacht

    • @toastbr0t
      @toastbr0t 2 роки тому +24

      Wow ein neuer orgineller Bielefeld Witz *Ba Dum Tss*

    • @marcelm.2170
      @marcelm.2170 2 роки тому +42

      Bielefeld?

    • @payback7320
      @payback7320 2 роки тому +35

      wer ist dieser bielefeld?

    • @mmmhhhleckerTee
      @mmmhhhleckerTee 2 роки тому +41

      Und dann gibt's Bielefeld auch noch doppelt

  • @der8auer
    @der8auer  2 роки тому +1088

    Langes Video mit sehr viel Aufwand aber ich bin mega Happy dass es endlich online ist 😬 etwas länger als sonst, aber ich denke es lohnt sich. Viel Spaß 💪
    Edit: Wenn der einzige Fehler in einem 1h Video eine "Zündkerze" ist kann ich damit sehr gut leben xD

    • @Palmarendur
      @Palmarendur 2 роки тому +38

      Ich mag so lange Videos, vor allem von so kompetent Leuten wie du einer bist! Mach weiter so.

    • @twei__
      @twei__ 2 роки тому +7

      die arbeit war es definitiv wert. gutes video (bis jetzt, bin bei 24min)

    • @errorbytedioxy4464
      @errorbytedioxy4464 2 роки тому +1

      Sehr gutes und interessantes Video auch dafür geworden.
      Danke

    • @mwattinger
      @mwattinger 2 роки тому +4

      Wenns so interessant und so gut erklärt/gezeigt wird ist die länge egal. Sehr gut gemacht und danke für die zeit die da reingesteckt wurde, vielen dank dafür

    • @crazyxviper
      @crazyxviper 2 роки тому +2

      Bei so ein Video ist denk ich mal ,denn meisten die länge des videos egal , es war echt spannend zu sehen wie das Zentrum aufgebaut ist .

  • @mickquick4795
    @mickquick4795 2 роки тому +1184

    Ein Zündkerzen Problem beim Diesel wäre echt bitter😉
    Mega interessantes Video, danke dafür.

    • @philippegelhof
      @philippegelhof 2 роки тому +40

      Aua, aua, aua....🤣🤣

    • @lukaay
      @lukaay 2 роки тому +6

      😂😂😂😂

    • @tarik5277
      @tarik5277 2 роки тому +24

      Zündkerze beim diesel ?

    • @P1aenkl3r
      @P1aenkl3r 2 роки тому +1

      Zündkerze? Wäre eh egal sind ja alle online USV Systeme

    • @9Loki11
      @9Loki11 2 роки тому +53

      @@P1aenkl3r du hast ja mal har nichts gerafft. 😅😁

  • @smartiefox256
    @smartiefox256 2 роки тому +272

    Fantastisches Video!
    Als Elektro-Mensch unfassbar informativ und cool zu sehen! Da wird an so viel gedacht 😯 Vielen Dank dafür dass du deine Kontakte nutzt um uns solche Einblicke zu ermöglichen!!

    • @SirHenry98
      @SirHenry98 2 роки тому +3

      dem kann ich nur zustimmen deutlich interresanter als das immer in ner vorlesung vorgebrabbelt zu bekommen. 😍

    • @keinenHier
      @keinenHier 3 місяці тому

      Wir suchen in datacenter viel elektro Menschen. Da Verdienst du ein Vielfaches

  • @cacomorphobia
    @cacomorphobia 2 роки тому +400

    Immer wieder interessant Rechenzentren mal von innen zu sehen!

    • @RandomUser2401
      @RandomUser2401 2 роки тому +8

      ohja. Und Linus LinusTechTips hat noch vor 3 Tagen behauptet Rechenzentren sind so hochsicher dass man da gar nicht reinkommt um zu filmen :P Tja Mr Sebastian in Europa und mit Roman geht das schon.

    • @ttrr916
      @ttrr916 2 роки тому +1

      Auf jeden Fall wird hier mehr berechnet als bei meiner Cousine im Matheheft haha ;--)

    • @jorgwohlgemuth7040
      @jorgwohlgemuth7040 2 роки тому

      @@RandomUser2401 q

    • @RandomUser2401
      @RandomUser2401 2 роки тому

      @@jorgwohlgemuth7040 p

    • @keinenHier
      @keinenHier 3 місяці тому

      Sehe doch alle gleich aus. Bin jeden Tag in welchen . Je nach Anbieter sehen die meistens gleich aus

  • @loens2
    @loens2 2 роки тому +109

    "Wenn der Stickstoff eingeleitet ist, dann ist die Umgebungsluft komplett voll mit Sauerstoff" - Roman Hartung
    28:38
    xD

    • @Egon3k
      @Egon3k 2 роки тому +11

      In knapp einer Stunde sei ihm der Fehler doch hoffentlich verziehen - unglaub wieviel Arbeit in dem Video steckt - finde es einfach mega interessant!

    • @X4n1c
      @X4n1c 2 роки тому

      LOL jo :D

    • @Hurrycane-j
      @Hurrycane-j 2 роки тому +1

      Sauerstoffreduzierter Bereich ... merkt man aber nix von

    • @derpopanz4502
      @derpopanz4502 2 роки тому +1

      @@Hurrycane-j Kurzzeitig natürlich nicht, wenn man da drin ein-zwei Monate verbringt bildet dein Körper z.B. wesentlich mehr Hämoglobin (rote Blutkörperchen). Ist halt ähnlich wie Höhenluft... bei 17% schätze ich jetzt mal eine Höhe von 2000 m über N.N., also Meresspiegel. Dass da kein Feuer mehr entfacht werden kann, bezweifle ich sehr, aber erschwert wird es sicherlich.

    • @blackhatschwarzhuttv7970
      @blackhatschwarzhuttv7970 2 роки тому

      ​@@derpopanz4502 Das Mensch auf dem Mont Blanc kein Feuer machen kann ist faktisch nicht richtig. Auch deine Schätzung,17% Sauerstoffanteil bei 2000 m über n.N. kann nicht sein: Der Anteil der verschiedenen Gase, die die Luft auf der Erde ausmachen, bleibt immer gleich: 21 Prozent Sauerstoff, 78 Prozent Stickstoff, ein Prozent Argon, Kohlendioxid, Wasserdampf und andere Edelgasmoleküle.
      Nur die Luft wird dünn, was bedeutet pro Atemzug atmet man weniger Moleküle ein und damit weniger Sauerstoff.
      Ein Mensch würde bei 17% Sauerstoff in dem Atemzug unweigerlich die Höhenkrankheit bekommen.
      Was aber schlimmer ist bei der STICKSTOFF gesättigten Luft: Der Mensch kann nur einen gewissen Anteil von Stickstoff binden und ausatmen.
      Daher kommt das Wort "ERSTICKEN"!

  • @ThePandafriend
    @ThePandafriend 2 роки тому +116

    Geniales Video, welches sich definitiv nicht hinter klassisch hergestellten Dokus mit großem Produktionsteam und hohem Budget verstecken muss! Sowohl was die Länge, als auch die Qualität angeht.
    Das hat sich gar nicht wie ein fast einstündiges Video angefühlt!

  • @skmCry
    @skmCry 2 роки тому +117

    Eines der Besten Videos, was ich bislang von dir gesehen habe. Mega faszinierend und sehr gut die Zusammenhänge und Gründe erklärt 👏

    • @der8auer
      @der8auer  2 роки тому +14

      Freut mich, danke!

    • @schreibhecht
      @schreibhecht 2 роки тому +2

      Ja und toll das man ihm vertraut, wenn schon nur ein IBM-Techniker dran darf. Er könnte ja einfach Kabel ziehen :-))

  • @tobiasg5385
    @tobiasg5385 2 роки тому +33

    Erstmal ein großes Dankeschön 💪
    Jedem Fachinformatiker/Admin geht da das Herz auf. Einfach so sauber. Das Kabelmanagement top. Cool das du uns hier teilhaben lässt.💪💻👨‍💻

    • @keinenHier
      @keinenHier 3 місяці тому

      Das ist eigentlich Standart, cabeling muss so sein

  • @tl1897
    @tl1897 2 роки тому +122

    Ich habe schon einge Rechenzentren gesehen, aber eine so saubere Verkabelung noch nie.
    P.S. Geiles Video. Da schlägt mein Admin Herz gleich höher.
    Und LTO Backup bekommen all unsere Kunden in irgendeiner Größenordnung.

    • @t0xanes
      @t0xanes 2 роки тому +9

      War bisher in 3 Rechenzentren, davon hatten 2 praktisch die gleiche "Qualität" bzw. Ordnung an Verkabelung. Muss ab einem gewissen Grad auch einfach sein, wenn man tausende Server hat. Sonst kriegst ja kein Kabel mehr getauscht usw.

    • @tl1897
      @tl1897 2 роки тому +5

      @@t0xanes gerade hinten in den racks sieht es aber hinten doch meistens anders aus. Ich red ja nicht von kraut und rüben Verkabelung. Oft passiert es einfach, dass Kabel im rack aufgerollt und zusammen gestrapst werden.

    • @kaiseidensticker3547
      @kaiseidensticker3547 2 роки тому +1

      @@tl1897 du scheinst interessante Rechenzentren zu kennen.

    • @stephanweinberger
      @stephanweinberger 2 роки тому +7

      @@tl1897 Beim HPC-Cluster den ich betreue haben wir immer eine Schlaufe Kabel für je zwei Nodes einfach auf den Maschinen drauf liegen. Allein von der Stromversorgung konnten wir die Racks ohnehin nicht voll machen, also haben wir einfach immer 2 Server, 1HE Lücke, 2 Server, usw. gemacht.
      Das ist zwar vielleicht nicht ganz so "sauber", aber hat durchaus auch Vorteile. Die Kabel liegen so recht lose und lassen sich bei Bedarf recht einfach tauschen. Ursprünglich waren die Kabel wie hier im Video "schön" in Kabelarmen verlegt, da war ein Tausch jedes Mal ein größeres Drama (und durch die engen Knickwinkel in den Armen kam das auch öfter mal vor). Plus man muss die Kabel jetzt nicht mehr exakt ablängen, sondern kann einfach Standardlängen verwenden.
      Außerdem haben die Arme mit jeweils 7 Kabeln (2x Strom, 1x IPMI, 2x Ethernet, 2x Infiniband) bei den 1HE-Servern praktisch die ganze Rückseite dicht gemacht und die Kühlung beeinträchtigt. Seit wir die Kabel zwischen den Maschinen aufrollen fahren wir ein paar Grad kühler (und somit auch länger im Allcore-Turbo). Und zur Wartung herausziehen geht immer noch recht einfach (kommt aber im Cluster ohnehin kaum je vor dass man eine laufende Maschine rausziehen müsste - die Jobs werden ohnehin automatisch verteilt, da kann man einzelne Kisten auch mal herunterfahren, abkabeln und gemütlich am Tisch zerlegen).
      Also falls jemand 150 Cisco-Kabelarme braucht: einfach melden :-)

    • @denisaalimanovic9082
      @denisaalimanovic9082 2 роки тому +2

      Das Geheimnis sind die Kreuzungen 😉 wenn du das nächste Mal siehst das so sauber ausgebunden wude schau dahin oder Darunter

  • @lucajager4080
    @lucajager4080 2 роки тому +50

    Das Video war unglaublich Informativ und Interessant, einfach brutal was für krasse Technik in dem Rechenzentrum stecket...
    Wirklich vielen Dank für diesen Einblick👍

  • @suhrke
    @suhrke Рік тому +7

    Moin Roman, ich war selbst in meinen Jahren als IT Service Engineer oft in verschiedenen Rechenzentren in München und Frankfurt. Nichtsdestotrotz hat mir dieses Video nochmal viele Dinge gezeigt, die ich dabei nie so hautnah erlebt habe, gleichwohl mir ihre Existenz bewußt war, Daher herzlichen Dank für dieses wirklich gute Video über ein modernes Rechenzentrum. So etwas habe ich in dieser Qualität noch nie gesehen. :-)

  • @atiessen
    @atiessen Рік тому +3

    Das finde ich ja toll, dass die OEDIF so einen tiefen Einblick in ihr RZ gegeben hat. Ich kenne die OEDIV seit 15 Jahren als Anbieter von SAP Dienstleistungen. Über die IBM Server freue ich mich immer wieder. Habe das schwarze Blech fast 10 Jahre verkaufen dürfen. Klasse Video 👍🏻.

  • @Paddydapro
    @Paddydapro 2 роки тому +19

    Holy shit, der Aufwand für dieses Video ist insane, danke für diesen krassen Einblick, die ganzen Ideen und das Know How das da drin steckt.. einfach nur krank!

    • @klinner2442
      @klinner2442 2 місяці тому

      Witcher 3 beste, danke dir

  • @legend_acg
    @legend_acg 2 роки тому +2

    Danke für den Einblick, ich finde das Thema extrem interessant.
    Die Planung und Ingenieursleistung die da dahintersteckt ist echt beeindruckend.
    Freue mich schon auf das zweite Video.

  • @captainpollutiontv
    @captainpollutiontv Рік тому +5

    Danke für diese Tour. Bin selber Fachinformatiker aber sowas habe ich noch nie gesehen. Einfach unglaublich was für ein Aufwand da betrieben wird und auf welchem technischen Stand das ist.

  • @TheCheaterofall
    @TheCheaterofall 2 роки тому +59

    13:00 Ach ja, das Zündkerzenproblem beim Diesel 😁 Aber sehr cooles Video, freue mich schon auf den zweiten Teil!

    • @Soulleey
      @Soulleey 2 роки тому +5

      Dann halt nen Glühkerzenproblem xD

    • @CoLuGames
      @CoLuGames 2 роки тому +3

      @@Soulleey Diesel wird/kann im Gegensatz zu Benzin so stark verdichtet (werden), dass dieser sich selbst entzündet. Deshalb braucht es keinen Funken.

    • @Soulleey
      @Soulleey 2 роки тому +6

      @@CoLuGames Das is mir schon klar... Die Glühkerzen sind ja auch eher fürn Kaltstart gedacht damit der Diesel zündwilliger ist... Aber kann gut sein, dass der Generator keine braucht wenn der sowieso immer Vorgewärmt ist...

    • @nasarethb.a.8702
      @nasarethb.a.8702 2 роки тому +3

      @@Soulleey Müßt mal bei mir in der Firma nachfragen ob da überhaupt sowas verbaut wird. Bau die Einspritzungen für solche Agregate. Mich würd noch interresieren ob das ein 2Takt/4TAckt systhem is und ob das schon CR oder noch direckt ist.
      Aktuell werden die ja als 4 Takt CR Motoren gebaut.
      Funfact für euch. Wer soein Notstromagregat will, die gibts auch semiMobil in nem Schiffskontainer eingebaut. kann man sich dan in den gaten stellen.
      Übrigens... die "LKWs" die solche Motoren verwenden, sind zum Beispiel CAT-Muldenkiper in Tagbergbau. alles drunter sind normale Motoren.
      Auch was die LAufzeiten angeht sind diese Agregate der Wahnsinn. 10.000 Betriebsstunden ohne Komponententausch sind da echt nix. Wir versuchen gerade eine neue Pumpe auf 30.000 Stunden hochzukriegen. 10.000 Stunden heist, das der Motor ein Jahr durchläuft.

    • @quitsch939
      @quitsch939 2 роки тому

      @@CoLuGames Stimmt auch nicht so ganz. Durch die Verdichung glüht die Glühkerze weiter und entzündet den Diesel erneut. Würde man die weglassen, bzw. würde die plötzlich kaputt gehen, würde sich da nix mehr entzünden.

  • @unlucky6737
    @unlucky6737 2 роки тому +11

    Einfach holy shit, wie viele Leute da wie lange dran geplant haben müssen... Und am Ende funktioniert alles auch noch!
    Einfach krass

    • @nervenjere
      @nervenjere 2 роки тому +1

      stell dir mal vor, da würden Politiker dran arbeiten, holy sh** xD

    • @Tommy1911TR
      @Tommy1911TR 2 роки тому +5

      @@nervenjere
      Die würden dann die Türe abschließen, damit kein Hacker rein kommt 😁

  • @michelschmitz6810
    @michelschmitz6810 2 роки тому +2

    Es ist sehr interessant so ein Rechenzentrum von Innen zu sehen. Klasse wie du das erklärst. Und danke dasdu solche Einblicke ermöglichst. Mache weiter so. Mag dein dein Kanal absolut.

  • @WxF9Zd
    @WxF9Zd 2 роки тому +2

    Danke wieder mal an Firmen die solche Einblicke ermöglichen, von denen sie direkt nicht profitieren, sondern einfach bereit sind coole Technik zu zeigen!

  • @helgewollenhaupt4490
    @helgewollenhaupt4490 2 роки тому +3

    Einstellungs-Kriterium im Rechenzentrum: keine Rot-Grün-Sehschwäche ... ;-)
    Tolles Video. Vielen Dank!

  • @Venti_464
    @Venti_464 2 роки тому +3

    Es ist echt mega zu sehen wie viele kleine geordnete Details und eine Maschine auf die andere abgestimmt sein muss wie ein Organismus der dann das Große ganze ergibt, mega Video Danke :D!

  • @beef_bene5102
    @beef_bene5102 2 роки тому +1

    Absolut krasses Video :D. Vielen Dank, dass du uns immer die bestmögliche Unterhaltung lieferst und uns mit deinem Enthusiasmus ansteckst.

  • @herrchoksondik5735
    @herrchoksondik5735 4 місяці тому

    Vielen Dank für dieses Video. Unglaublich beeindruckend. Grandios, dass du uns solche Einblicke ermöglichst.

  • @happyhardcoreparadise
    @happyhardcoreparadise 2 роки тому +4

    es ist beruhigend zu sehen das die Industrie, nicht wie die Politik vor 30-40 Jahren hängen geblieben ist, sondern ganz vorne mit dabei ist. sehr interessante und informative einblicke in den enterprise sektor, für mich gerne mehr davon.

  • @stunrisex7623
    @stunrisex7623 2 роки тому +4

    Exzellentes Video, es ist sehr schwer ein so großes RZ für DIY Gamer zu erklären und man sieht, wie viel Aufwand in diesem Video steckt. Ich war selbst in einem solchen RZ mal zu Besuch (als Kunde) und da war genau das gleiche - auch so Feinheiten wie der aufgewärmte Diesel, der auch blau angestrichen war, die Löschflaschen, Batterien usw.

  • @Saukaron
    @Saukaron 2 роки тому +2

    Absolut beeindruckend, mit wie vielen Sicherheitsvorkehrungen hier, in dem von dir gezeigten Hetzner RZ und zb den DATEV RZs im Vergleich zum OVH „Container RZ“ gearbeitet wird. Da überrascht es immer weniger, dass der Brand in OVH Strasbourg so dermaßen schief gehen musste. Danke dir für diese Einblicke Roman!

  • @gun1558
    @gun1558 2 роки тому

    Sehr interessantes Video und super präsentiert.
    Danke dafür an dich und alle, die dir dabei geholfen haben.

  • @benni_w_
    @benni_w_ 2 роки тому +8

    Mega interessantes Video, ich hätte nicht gedacht, das da teilweise so ein Aufwand betrieben wird - vor allem was die unfassbare Redundanz und Sicherheitsmaßnahmen angeht. Partikelmessung und Sauerstoffreduktion zum Brandmanagement - verrückt. Auch die Zuverlässigkeit von dem Mainframe oder die Tatsache dass der Power 10 einen 256Kern Epyc 1.5TB ddr4 Server zum Frühstuck isst hätte ich so nicht erwartet. Und einfach Masterstudiengang Kabelmanagement, Sicherheit, Ordnung und Organisation xD.
    Super Video, hab erst am Ende gemerkt, dass das ja fast ne Stunde war, freue mich auf den zweiten Teil. Viel interessanter als ein fünftausendstes Video mit "boah krass 12900k und 3090 voll viel fps krass".
    Den Aufwand ist das Video meiner Meinung nach definitiv wert.

    • @lukass8506
      @lukass8506 2 роки тому +3

      @@joellegge460 Es ist nicht so einfach:
      POWER 9 hatte kein so direktes RAM Limit von 4TiB, das hatte nur die kleine Desktop Version.
      Bei PowerPC funktioniert RAM völlig anders als bei jedem anderen System, da auf ein anderes Interface gesetzt wird. Es gibt die Desktop Varianten (scale out), die 8 DDR4 Kanäle hatten und max Dual Sockel Systeme konnten. Die Scale Up Versionen können bis zu 16 Sockel und theoretisch sehr viel RAM verwalten, da statt auf Speicherkanäle auf OMI gesetzt wird. Das ist eine serielle Schnittstelle, die auf PCIe aufsetzt und dadurch skalierbarer als parallele Interfaces ist. Eine OMI Karte siehst du auch bei z.B. 38:27, deshalb sieht das RAM Modul auch wie eine PCIe Karte aus. Dadurch, dass du nicht durch Ranks und das parallele Interface beschränkt bist, kannst du theoretisch beliebig viel RAM auf solches Modul packen. eine offizielle Spezifikation was RAM Kapazität betrifft, hat IBM für Power9 nie offizielle Angaben gemacht, das höchste was durch IBM direkt verkauft wurde, waren aber 4TB pro Sockel, dafür aber mit 16 Sockel Systemen. Dagegen ist ein EPYC Dual Socket System mit den 4TB (bzw. 8TB seit ungefähr 2021, davor gab es keine 256GB DIMMs) gar nichts.
      Dadurch, dass die Schnittstelle seriell ist, kann dahinter auch ALLES an Speicher stecken. Nichts hält einen davon ab, DDR5 oder bauch DDR6 Module für Power9 zu entwickeln (auch wenn das volle Potential nicht genutzt werden kann). Bei Power10 sind es übrigens 1PiB (=1024TiB) pro Sockel, bzw. 2PiB in den DCM Varianten.
      Intel und AMD setzen noch immer auf parallele Schnittstellen und können daher bei weitem nicht so viele Speicherchips unterbringen. Mehr als 12 Speicherkanäle wird wegen den sehr empfindlichen Zeitbeschränkungen quasi nie möglich sein und mehr als 8 bekommst man auch Platztechnisch nicht unter. Nach JEDEC Specs kann es maximal 512GB oder 1024GiB Module geben, das wären maximal 24TiB pro Sockel, praktisch werden wir wohl eher bei 8-16TiB Maximum landen.
      Die Speicherbandbreite liegt bei Power 10 übrigens bei 1TB/s für DCM Chips.
      Deine Aussagen bezüglich Supercomputer sind übrigens sehr amüsant, weil gerade das einer der starken Bereiche für PowerPC ist. x86 schafft es im Supercomputersegment nur noch gerade so in die Top5: Platz 1 ist ein ARM System von 2018, Platz 2 und 3 sind POWER9 Platz 4 ist eine custom Architektur und Platz 5 ist ein Milan System. Insgesamt sind 6 Power9 Systeme unter den Top 100 Supercomputern.
      Das nächste was falsch ist, ist das mit den Kernen. Zunächst einmal sind die Kerne überhaupt nicht vergleichbar und zusätzlich lassen sich die CPUs umkonfigurieren. Ein Power10 Chip hat 15/30 Kerne und 120 Threads. Du kannst sogar zur Laufzeit die Topologie so verändern, dass du 15 oder Kerne hast (Einfach gesagt ändert sich das Verhalten des Caches). Und die Kerne sind einfach um ein vielfaches stärker. Zen3 und Golden Cove haben beide jeweils 2 Floating Point Execution units pro Kern, bei Power10 sind es 8 pro Kern. Damit ist Power10 in der Rohleistung (und diese ist viel einfacher Nutzbar aus Softwaresicht) pro Kern um Faktor 4 schneller als EPYC oder Xeon Systeme, deshalb ist es in dem Fall sinnvoller, die Anzahl der Threads zu vergleichen (alle drei Architekturen haben pro Thread eine FP EU). IBM verkauft die Systeme als SCM und DCM, die SCM Varianten haben 120 Threads pro Sockel und können in 16 Sockel Systeme gesetzt werden, während die DCM Varianten 240 Threads pro Sockel haben (ist wie Naples und Xeon 9300, es sind einfach zwei Dies auf einem Package) mit 4 Sockeln pro System. Damit ist die Dichte erheblich besser
      In einen Blade Server (Das sind typische compute Knoten, kleiner als 1U) bekommst du:
      Bei EPYC: 2x64/128 Kerne => 256Threads
      Bei Xeon ice Lake: 2x 40/80 Kerne => 160 Threads
      Bei Xeon Cascadelake/Skylake: 4x 28/56 Kerne => 224 Threads
      Bei Power10: 8x(4x2x)15/120 => 960 Threads
      Der einzige große "Nachteil" bei PowerPC ist, dass es keine richtige Vektorunterstützung gibt, bei Intel/AMD gibt es AVX, das in einigen Anwendungen große Performancevorteile haben kann. In schwierig zu vektorisierenden Anwendunghen (davon gibt es sehr viele), ist PowerPC im Nachteil.
      Dazu sei aber gesagt, dass die gesamte Architektur dafür entworfen ist, mit beschleuniger Hardware zusammen zu arbeiten. Über das gleiche Interface wie der Speicher können Beschleunigerkarten angeschlossen werden, die sogar den RAM mit der CPU teilen können. Die Technik dahinter nennt sich OpenCAPI (eingeführt mit Power9) und ist sehr ähnlich zu PCIe 5.0.

    • @lukass8506
      @lukass8506 2 роки тому +3

      @@joellegge460 Du hast scheinbar nichts von dem verstanden...
      1. Ich habe nie behauptet, dass die absolute Performance deutlich besser wäre und erst recht nicht, dass jede Anwendung von dieser Architektur profitiert.
      Und selbst wenn es so wäre (Rohleistung), dann sagt das noch überhhaupt nichts über die Performance in der Praxis aus. Egal was für für Hardware du hast, die Software ist viel wichtiger. Intel hat einen riesigen Softwarestack, der alleine schon grund genug ist, um sich oftmals für Intelsysteme zu entscheiden. Ein weiteres großes Argument gegen PowerPC sind die Kosten. Selbst wenn es hardwaretechnisch deutlich stärker wäre, dann können sich die wenigsten ein so teures System leisten. Deine Aussage von wegen 'bei supercomputern spielt Geld keine Rolle' ist schwachsinnig. In den Top 5 bis Top 10 vielleicht, weil diese Plätze prestigeträchtig sind (eigentlich nur Platz 1 so richtig), alle anderen haben sehr begrenzte Budgets und sind meist auf Fördergelder angewiesen (in Deutschland sind das alle).
      2. Was ist OpenFoam bitte für ein Maßstab und auf was für Tests beziehst du dich? Den einzigen direktvergleich zwischen einem POWER und x86 System, den ich finde ist von IBM selbst und da spricht die Leistung eher für IBM.
      Aber selbst wenn die CPUs in OpenFoam deutlich schneller wären, dann hätte das keine große Aussagekraft. Diese Art von Berechnungen wird mittlerweile hauptsächlich auf GPUs durchgeführt, weil es gut zu vektorisieren ist (ich habe übrigens auch selbst schon etwas zu Vektorisierung auf PowerPC gesagt.
      3. Hyperthreading ist NICHT vergleichbar mit IBMs Kern/Thread Modell. Ja, SMT (bei x86) hat nicht immer große Vorteile bei HPC Anwendungen (In vielen Supercomputern ist Hyperthreading deshalb auch deaktiviert, alleine schon weil oft kaum mehr als ein Thread pro Prozess genutzt wird) und oftmals große Nachteile. Der Unterschied ist aber, dass PowerPC nicht mit den gleichen Einschränkungen bei SMT kommt wie man sie bei Intel und AMD findet.
      Ich zweifle zwar an, dass du das verstehen wirst, aber hier eine kurze Erklärung, wie SMT/Hyperthreading bei Intel/AMD funktioniert (es ist nicht gleich, aber prinzipiell ähnlich)
      Die Execution Engine (das ist der Teil, in dem die Berechnungen stattfinden) besteht mittlerweile aus mehreren Teilen, die gleichzeitig genutzt werden können (nennt sich Superscalar). Davor sitzt ein Scheduler, der die Instruktionen, die in den Kern gelangen, auf die einzelnen Ports aufteilt.
      Typisch sind so etwas wie 2 AVX Einheiten (512bit), die FP und komplexe Int Berechnungen (inklusive FMA) Vektorisiert berechnen können, eine kurze Vektoreinheit für einfache Operationen (hauptsächlich int), eine sehr kurze ALU/Branch Einheit (zum berechnen von Sprungadressen) und ein wenig was an Load/Store Einheiten. Das "Problem" dabei ist, dass fast kein Programm alle Einheiten gleichzeitig nutzt und deshalb große Teile der EE nichts tun. Deshalb nutzt man Hyperthreading, was einfach nur einen zweiten Eingang zum Scheduler hinzufügt (stark vereinfacht gesagt). Je verschiedener die Instruktionen der beiden Threads, desto besser ist die jeweilige Performance, da die EE besser ausgenutzt wird. Bei Anwendungen, die sehr viel FP Einheiten nutzen (vor allem im Wissenschaftlichen Bereich) bringt das oft nicht viel, weil auch ein einziger Thread beide AVX Einheiten locker auslasten kann. Der zweite Thread fügt dann nur Overhead hinzu und macht das Programm langsamer (deshalb sieht man in dem Bereich auch oft eine schlechtere Performance mit Hyperthreading.
      Der Punkt ist aber, dass bei PowerPC Threads und Kerne anders funktionieren/definiert sind. In Power10 (auch schon in Power9) gibt es keine Kerne im klassischen Sionne. Jeder "Kern" ist ein eigentlich ein "core pair", die zwei gespiegelte Kerne sind. Der L2 Cache sitzt in der Mitte zwischen diesen beiden Kernen und kann (muss aber nicht) von beiden Kernen geteilt werden. Innerhalb eines "core pairs" ist also sowohl Level2 als auch Level3 Cache geteilt. Das fügt einfach eine weitere topologische Ebene hinzu, die kein Äquvivalent im x86 Bereich hat.
      Einen geteilten L2 Cache zu haben kann Vor- und Nachteile haben, weshalb sich dieses Feature an- bzw. ausschalten lässt. Damit das OS damit besser umgehen kann, definiert IBM diese L2 Csache Pools einfach als einen "Kern". Jeder dieser beiden Teilkerne ist wieder zweigeteilt und bestehgt aus jeweils zwei Vektor Execution Engines (Power 10: 128 bit, Power9 64bit), Load/Store Engines, und einer Matrix Engine. Damit entspricht (aus sicht der Execution Engines)jeder Teilkern wieder zwei Kernen, die dann wiederum zwei Threads pro Kern. Klingt kompliziert, ist es auch. Deshalb gibt IBM auch eigentlich nur noch die Anzahl der Threads an. Aus Softwaresicht lassen sich die Kerne/Threads wie folgt konfigurieren:
      1 Kern, 8 Threads
      2 Kerne, je 4 Threads
      4 Kerne, je 2 Threads
      Damit kann man unanbhängig von der Threadnutzung die Konfgiguration an die Anwendung anpassen.
      4. Thema Dichte:
      Du beziehst dich auf ein einziges IBM System, ich denke mal das E1080 System. Das ist ein Referenzsystem, das nicht unbedingt auf maximale Dichte getrimmt ist (es sind keine Compute Knoten und klassische Blade Server gibt es noch nicht). Die IBM eigenen Systeme sind eher für das I/O Angebot ausgelegt, compute Varianten werden folgen. PowerPC ist sehr offen und erlaubt es, allen Herstellern, unterschiedliche Systeme zu bauen (Die Plattform ist Open Source). Es gibt von IBM selbst auch noch keinen direkten Nachfolger für die Summit/Sierra Systeme.
      Meine Rechnung war nur Beispielhaft, konkrete Systeme sehen immer unterschiedlich aus. Es geht um das Potential der Dichte.
      Welche Blade 6000 Server meinst du überhaupt? Ich kenne nur Sun Blade 6000 Server, die passen aber nicht zu deinen Angaben.
      Warum deine Rechnung mit den Kernen keinen Sinn ergibt, muss ich hoffentlich nicht mehr erklären.
      5. "Große DIMM Module von z.B. 1 TB sind vollkommen uninteressant"
      Was?! Selbstverständlich kommt es nicht nur auf die Menge des Speichers drauf an, aber trotzdem ist die Speichermenge sehr relevant. Aktuelle Systeme sind so entworfen, dass sie verhältnismäßig gut damit umgehen (man nutzt sehr schnelle Festplattensysteme, auf die immer wieder Daten geschrieben werden). Wenn man die Möglichkeit hätte, Alles im RAM zu halten, dann könnte man deutlich schneller Rechnen. Selbstverständlich braucht das nicht jeder.
      6. Das was du wohl gar nicht verstehst ist, dass es im HPC Bereich sehr unterschiedliche Anforderungen gibt. Einige Anwendungen sind compute Bound, andere sind Memory(bandwidth) bound und wieder andere sind I/O Bound. Einige können effektiv GPUs nutzen, andere nicht. Usw usw. Klimasimulationen brauchen zum Beispiel sehr viel RAM (mit doppelter Auflösung verachtfacht sich in etwa der RAM Bedarf). Die Systeme des DWD haben deshalb zum Beispiel fast 1TB pro Knoten im Durchschnitt. Auch Proteinsimulationen brauchen sehr sehr viel RAM.
      Ein Rechenzentrum, dass sich hauptsächlich mit Proteinen/Wetter/Klima beschäftigt schafft ganz andere Systeme an als Rechenzentren, die sich auf AI fokussieren.
      7. "Mit Supercomputer scheinst Du dich aus nicht sonderlich auszukennen"
      An dem Punkt war ich echt am verzweifeln. So viel Mist in einem Abschnitt habe ich lange nicht mehr gelesen. Ich hatte das Thema Top500 Liste nur angeracht, weil sie deine Aussage "und die ganzen Supercomputer würden nicht aus AMD oder Intel bestehen, denn hier spielt Geld keine Rolle." mehr oder weniger widerlegt hat.
      Die Liste ist wenig aussagekräftig und allgemein nkein guter Indikator. Ein Vergleich der PowerPC Systeme mit anderen wäre auch einfach dumm, weil Sierra und Summit extrem Anwendungsspezifisch entworfen sind.
      Aber genau das macht diene Behauptungen jetzt so richtig lächerlich. Dass die Aussage "Bei den Supercomputer ist nicht die absolute Rechenleistung entscheidend, sondern die Reichenleistung pro Quadratmeter. Oder die Rechenleistung pro 1U Node." Ziemlich falsch ist, ist nochmal ein anderes Thema. Supercomputer sind deutlich weniger durch die Fläche beschränkt alsa andere Systeme, weil es in vielen Hinsichten geringere Ansprüche gibt. Wenn du mal irgendwann die Chance hast, einen Supercomputer von innen zu sehen, dann mach dich gefasst, wie klein das ganze eigentlich ist.
      Aber selbst wenn das so sein sollte, dann ist deine Aussage ziemlich sicher gfalsch, bzw. ergibt sie keinen Sinn. In Sierra und Summit stecken AC922 Server, die jeweils 4U umfassen. Davon gibt es insgesamt etwa 4600 Knoten. Das macht eine Rechenleistung von etwa 32TFLOPS pro 4U System (wenn wir von der aggregierten Leistung herunterrechnen), bzw. 8TFLOPs pro 1U. Zum Vergleich: Die schnellsten EPYC CPUs (7763) erreichen pro Sockel etwa 1.6 TFLOPs. Das heißt, dass du 5 CPUs pro 1U bzw. 320 Kerne pro 1U bräuchtest, um diese Dichte zu erreichen.
      Aber es ist offensichtlich, dass das niucht funktioniert, weil die AC922 als GPU Server entworfen sind. Die Technik darin ist zu dem zeitpunkt absolut einzigartig und hat quasi keine Konkurrenz.
      Aber wie gesagt, alles ist anwedungsspezifisch.

    • @lukass8506
      @lukass8506 2 роки тому +3

      @@joellegge460 Danke, dass du mich so unterhälst.
      Wie sollte ich Klimasimullationen sonst nennen? Klimamodelle?
      OpenFoam ist nicht mein Fachgebiet, das gebe ich zu, trotzdem habe ich schon einige Paper zum Thema GPU compute für OpenFoam gesehen. Konkret würde mir da u.A. RapidCDF, aktiv gearbeitet habe ich selbst aber noch nicht. Aber Fakt ist, dass es GPU beschleunigte Solver gibt, die Lib eingebunden werden können. Deshalb verstehe ich dein Problem nicht.
      "Sehr amüsant. OpenFoam ist die open Source CFD Software die sämtliche Wissenschaftler nutzen und auf sämtlichen Supercomputer installiert ist"
      Sämtliche Wissenschaftler also? Bei mir am Fachbereich hat das noch niemand genutzt und ich bin mir nicht einmal sicher ob es überhaupt auf dem cluster liegt.
      "FEM/ FVM ist ausschließlich Speicherbandbreiten limitiert, da bringt 1 TB pro Node überhaupt nichts. Denn bei FEM /FVM ist nicht der Speicher, sondern die CPU Zeit limitierend. Anstatt 1 TB RAM auf einen Node, sind vier Nodes mit je 256 GB Ram deutlich performanter." Habe ich das jemals anders behauptet? Nein. Ich weiß, es ist bestimmt eine überraschung für dich, aber die hpc Welt besteht nicht nur aus OpenFoam.
      "Du hast doch sicher niemals ein Klimamodell gesehen. Was soll das denn bitte für Modelle sein. Diese haben für gewöhnlich eine Netzauflösung von 50 km."
      Ich zitiere einfach mal den DWD: "Die horizontale Maschenweite des nativen ICON-Modellgitters beträgt 13 km. In der Vertikalen wird die Atmosphäre mit 90 Schichten aufgelöst, deren Obergrenze in 75 km Höhe liegt."
      Viel mehr braucht man da nicht zu zu sagen, aber ich soll derjenige sein, der noch nie damit gearbeitet hat. Aber ICON ist ja nur ein unbedeutenes Stück Software, das nur für so unwichtige Dinge wie den IPCC Bericht genutzt wird.
      Was du jetzt plötzlich mit 48GB GPUs willst, verstehe ich nicht. Die meisten Klimamodelle haben gar keinen GPU support und wenn ist dieser nur auf sehr kleine Teile beschränkt.
      "Keiner braucht einen Blade 6000 (die Maße stimmen übrigens, siehe Datenblatt)"
      Wann habe ich etwas zu den Maßen gesagt?
      "Fakt ist nun mal IBM Power hat in HPC keine nennenswerten Vorteile."
      Du machst dich langsam wirklich lächerlich. Wenn du aufmerksam lesen würdest, würedest du auch verstehen, was meine Aussagen sind.
      "Anscheinend hast Du weder meine Aussage, noch die TOP500 der Liste bezüglich Supercomputer verstanden"
      Wie kommst du zu dem Urteil, kannst du überhaupt lesen was ich schreibe? Deine Aussagen passen kein bisschen zu dem was ich geschrieben habe.
      "Deine Aussagen spiegeln nicht die Fakten wieder und IBM sieht es bezüglich technsiche Daten vollkommen anders wie Du."
      IBM sieht es anders ALS ich? wäre mir neu, warum bauen sie HPC Systeme?
      "von Dir kommen überhaupt keine Quellennachweise" Wofür willst du denn Quellen haben? Alle meine Aussagen lassen sich über OpenPower nachlesen. Du hasdt immer noch nicht die Quellen für deine Performancebehauptungen genannt, obwohl ich mehrfach danach gefragt habe, wo bleiben die?
      Viele von deinen "Argumenten" gehen kein bisschen auf meine konkreten Aussagen ein, wenn du meine Aussagen verzerrst, ist es klar, dass du etwas daran auszusetzen hast.

    • @lukass8506
      @lukass8506 2 роки тому +1

      @@joellegge460 Schön, dass du immer noch keine Belege für deine Aussagen liefert, bestätigt nur meine Annahmen. Mir wird es echt zu dumm. ICON ist dynamisch und kann für unterschiedliche Regionen unterschiedliche Gittergrößen anlegen. Homogeneren Zonen können gröbere, Heterogeneren Zonen feinere Gitter zugeordnet werden.
      Aber warum sollte ich dir hier jetzt auch noch das Simulationsmodell erklären...
      Ich werde mal den sprechen, vielleicht stellen die dich ja ein, dann kannst du ja die Cluster Konfigurieren. Da hat der DWD wohl ganz umsonst über 400TB an RAM für die 500 Knoten gekauft, solltest du denen mal sagen.
      Ich geb dann auch mal weiter, dass man nicht mehr an Hochleistungs I/O arbeiten muss. Ich denke die vielen Petabytes, die zuletzt geschrieben wurden, waren nur Einbildung.

    • @cubytischer
      @cubytischer Рік тому

      Epyic ist doch AMD!? Aber das sind doch IBM chips drin ? hee 🤔

  • @MaximilianPieck
    @MaximilianPieck 2 роки тому +5

    Könnte ich mir den ganzen Tag anschauen! 🙂 Tolles Video und sehr informativ! Vielen Dank an OEDIV, IBM und natürlich dich, Roman! 👍

  • @manuelson5948
    @manuelson5948 2 роки тому +1

    Mega interessant! Vielen vielen Dank für deine Mühen uns das Rechenzentrum so im Detail zu zeigen!

  • @MarcusHegel
    @MarcusHegel 2 роки тому +1

    Was für nen geiles Video wieder mal über so ein Rechenzentrum. Habe das damals andere schon verschlungen und hier war es net anders.
    Klasse und vielen dank an alle, die es uns ermöglichen solche Einblicke zu erlauben.

  • @kevin.kroeber
    @kevin.kroeber 2 роки тому +5

    Extrem interessant! Das sind wirklich unfassbare Server 🤯 Und die ganze Struktur des Rechenzentrums ist einfach nur beeindruckend.

  • @christiansonnenberg8342
    @christiansonnenberg8342 2 роки тому +30

    Sehr informatives und interessantes Video. Danke dir!
    btw. Zündkerzenproblem bei einem Dieselaggregat wage ich zu bezweifeln ;)

  • @itecMusicx
    @itecMusicx 2 роки тому +1

    Wow. Das ist schon der Wahnsinn. Als Elektroniker für Betriebstechnik der jetzt als Mikrotechnologe für Halbleiterschaltkreise arbeitet weiß, dass das ein großes Privileg ist. Das ist nämlich nicht selbstverständlich. Dieser Einblick und den Umfang an Informationen fachkundig zu übermitteln ist auch nicht leicht. Riesen Dank an alle die das für uns möglich gemacht haben. Normalerweise darf man ohne ärztliche Bescheinigung keine Sauerstoff reduzierte Atmosphäre betreten. Als ich noch als Elektroniker unterwegs war, mussten wir auch unseren Serverraum kontrollieren und ohne Nachweis darf man da nicht rein. Zum Schutz von allen natürlich. Mega geil von der Firma uns den Einblick zu gewähren, denn das ist auch nicht selbstverständlich. Meistens sieht man gar nicht mehr. Vielen vielen Dank 🙏

  • @TheSaragada
    @TheSaragada 2 роки тому

    Sehr interessante Einblicke. Danke für Deine ausführlichen Kommentare und Deine Mühe!

  • @Saitentanz
    @Saitentanz 2 роки тому +5

    Danke für das Video! Ich war Anfang der 2000er Jahre bei einer Führung im Rechenzentzrum der SEB in Frankfurt dabei. Dort gab es noch Speicherschränke mit SCSI HDDs, die mit 10.000 oder 16.000 rpm nagelten. Man musste mehrere übereinanderliegende Türen öffnen, um die Geräte zu kommen. Dabei ertönen jeweils schrille Warntöne, um auf den Hörschutz-Zwang hinzuweisen, weil die HDDs ohne Schallisolation so laut waren, dass sie das menschliche Gehör zerstörten. In der Führung hatte man jede Menge beeindruckende Technik gesehen. Stellenweise hat mich dieses Video daran erinnert. Auch das SEB Rechenenzentrum gab bzw. gibt es 2x an verschiedenen Orten. Grund war "der Fall, den sich niemand wünscht" - nämlich dass ein Flugzeug auf das Gebäude abstürzt. Für diesen Fall konnte damals innerhalb von wenigen Minuten das andere RZ komplett hochgefahren werden. Auch gab es Büros mit derselben Ausstattung 1:1 wie in den einzelnen Bankgebäuden. Hintergrund war, dass bei einem technischen Problem sofort ein Spezialist die Situation reproduzieren und eine Lösung erarbeiten konnte.
    Es ist schon erstaunlich, welch ein Aufwand mit modernster Technik für die Betiebssicherheit betrieben wird.

    • @keinenHier
      @keinenHier 3 місяці тому

      Das andere muss nicht hochgefährlich werden. Das ist immer da. Das würde sonst Stunden gehen..aber zwischen 2000 und heute sind Welten

    • @keinenHier
      @keinenHier 3 місяці тому

      Und die Notfall Arbeitsplätze sind die Banken Vorschrift um den not Betrieb zu gewährleisten

  • @thomasjendrny78
    @thomasjendrny78 2 роки тому +4

    Mega Video, es kann ruhig mehr davon geben. Super Arbeit! 👏
    Als ITler schlägt einem da das Herz höher. Und ein ganz großes Lob an die Techniker dieses Zentrums, da das alles so extrem aufgeräumt, sortiert und sauber aussieht. Da schlägt auch mein Monk-Herz höher! 😉

  • @Kumachantaan
    @Kumachantaan 2 роки тому +1

    WOW... Großartig!!! und echt vielen Dank an OEDIV, die diesen Einblick möglich machten. Und vor allem auch, dass das mit dem IBM-Techniker geklappt hat!
    Ich bin schon auf den zweiten Teil gespannt!

  • @geroldminhofer3295
    @geroldminhofer3295 2 роки тому +3

    Hammer Video. Danke and dich und auch an OEDIV. Ist nicht selbstverständlich, dass ne Firma sowas herzeigt und das auch noch so detailliert.

  • @masterraso202
    @masterraso202 2 роки тому +3

    Danke dafür. Da hat sich in den letzten 30 Jahren einiges getan bei IBM. Durfte mir damals mit meinem Vater eines ansehen. Wahnsinn das alles nur mehr im Ramspeicher liegt für den Datenzugriff und die Festspeicher eigentlich nur mehr als Backup dienen. Die Energieeffizienz ist auch der Hammer auch wenn ich das nicht ganz glauben kann. Zumindest Sparsamer als vor 30 Jahren :)

  • @PorceTheFather
    @PorceTheFather 2 роки тому +7

    Wahnsinn Video, einfach eine Stunde interessanteste Unterhaltung. Danke dafür!

  • @jwjcuenkejeidiixjs66
    @jwjcuenkejeidiixjs66 2 роки тому +1

    Krass was da alles dahinter steckt. Da hat sich deine Arbeit gelohnt. Bin auf den nächsten Teil gespannt 🙂

  • @louvanburch9688
    @louvanburch9688 2 роки тому

    Vielen Dank. Tolles Video, sehr informativ. Der Aufwand für den Betrieb ist ja wirklich immens.

  • @feltax
    @feltax 2 роки тому +10

    Sehr geiles und vor allem interessantes Video. Großen Respekt auch an OEDIV, dafür dass sie uns mal einen Blick in ihre Welt gestattet haben! 😌👍

  • @elijaa17
    @elijaa17 2 роки тому +61

    Server fast so laut wie meine playstation

  • @andreewert6576
    @andreewert6576 2 роки тому +1

    Als jemand, der beruflich solche Technik (Storage/Backup, hauptsächlich) verkauft: Boah, was da an SUMMEN stehen. In jedem Kapitel. Der Hammer.

  • @jmasterp22
    @jmasterp22 2 роки тому +1

    Für mich persönlich eins der interessantesten Videos seit langem im Internet. Habe nicht mal ahnen können, wie viel Aufwand betrieben werden muss, um einen Rechenzentrum stabil zu halten.
    Gut und informativ rüber gebracht, danke an die Betreiber und euch für den Einblick. Ich könnte es mir noch stundenlang weiter ansehen.

  • @philippbutscher1389
    @philippbutscher1389 2 роки тому +11

    Mega interessantes Video, mach weiter solche tollen Videos

  • @mikariv3764
    @mikariv3764 2 роки тому +3

    Sehr geiles Video! Komme aus der IT-Branche aber so ein riesiges Rechenzentrum sieht man nicht alle Tage. Danke, dass du uns mitgenommen hast. Freue mich auf Teil 2!

    • @RonaldSchneiderGiebenach
      @RonaldSchneiderGiebenach Рік тому

      Wenn tatsächlich nur 2 solche Diesel da stehen, ists nicht soo gross. Aber die vielfalt der technischen Einrichtung ist toll gezeigt.

  • @wismutkumpel
    @wismutkumpel 2 роки тому +1

    Der allerbeste Beitrag mit allerbester Moderation, den ich bisher zum Thema aktuelle Server und Datenspeicher gesehen habe!
    Vielen Dank!

  • @dermarc880
    @dermarc880 2 роки тому +2

    Absolut geiles Video und die fast 1h habe ich sehr gerne geschaut ! Echt Krass und informativ das ganze, deswegen mag ich deine Videos, du bringst das alles halt auch immer richtig gut rüber. Macht weiter so :)

  • @xXBoneBreakXx
    @xXBoneBreakXx 2 роки тому +6

    21:05 die Lüfter laufen gerade im Idle Modus 😂

  • @hankey1986
    @hankey1986 2 роки тому +6

    der8auer ersetzt die maus am sonntag ^^ geiler content meiner! endlich kann ich mir mal was unter einem Industrieserver vorstellen. Und aus HLSK Sicht einfach super zu sehen, was man täglich so plant ;)

  • @xxquackixx178
    @xxquackixx178 2 роки тому

    Sehr interessante Einblicke. Danke für die Mühen!

  • @marko_bauer
    @marko_bauer 2 роки тому +1

    Eines der besten Techvideos welches ich jeh gesehen habe. Nicht weil für mich vieles neu war, sondern weil es wirklich extrem gut gemacht war und interessant, qualitativ und koherent erklärt wurde. Absolut mega Roman - dafür gönne ich dir Apohis' Helm!!! :D

  • @prototyppro
    @prototyppro 2 роки тому +4

    Ein sehr schönes Video, ich kann mir vorstellen das es sehr viel aufwand gemacht hat das ganze zu Produzieren. Sicher nicht einfach wenn man immer aufpassen muss was man sagt oder zeigt!
    Und dennoch ein sehr schöner und lustiger Fehler in diesen paar Sekunden 28:30 - 28:50 (Sauerstoff, kann dann schon knapp werden :D )

  • @svanmn_5035
    @svanmn_5035 2 роки тому +4

    Mega interessantes Video. Nimm das nächste Mal eine Wärmebildkamera mit, dann kannst du die Kühlung besser erklären

  • @matteobenholz4677
    @matteobenholz4677 2 роки тому

    Wirklich super Video, mir kam es an keiner Stelle zu langwierig oder ähnliches vor, sondern war die ganze Zeit interessiert und hätte gern noch mehr gesehen.

  • @janbuker8722
    @janbuker8722 2 роки тому +1

    Das ist mal ein geniales Video und super interessant. 👍
    Der Aufwand ist noch höher als ich gedacht habe.

  • @Layviz
    @Layviz 2 роки тому +7

    So ein unfassbar geiles Video ich bin komplett geflasht

    • @der8auer
      @der8auer  2 роки тому +4

      vielen Dank!

    • @Layviz
      @Layviz 2 роки тому +2

      @@der8auer nichts zu danken ich danke für das Video 🙈💟

  • @boredmau5
    @boredmau5 2 роки тому +6

    Mainframes erregen mich. 😏
    So fängt der Sonntag gut an - danke, Roman!

  • @adrian23422
    @adrian23422 2 роки тому +1

    Unfassbar Spannendes Video. Danke, dass du uns so etwas kostenlos zur Verfügung stellst

  • @best591
    @best591 2 роки тому +2

    Sehr gutes Video. Zu 48:40 : als beruflicher Storageadmin geht mir jedes mal einer ab bei dem Design von den EMC² Kisten. Die stechen im RZ so krass hervor, dass ich mir ein altes VMAX Rack als 19" Schrank für mich zu Hause geholt habe XD

  • @FunnyRaccoonMan
    @FunnyRaccoonMan 2 роки тому +4

    Einfach RGB in den Dr.Oetker Servern, sehr schnieke 17:00

  • @galsherp6173
    @galsherp6173 2 роки тому +33

    also sorry, ich muss wirklich mal sagen, unglaublich gut und informativ gemacht... viel besser als das video von ltt und das heißt was... :) Danke

    • @felko3571
      @felko3571 2 роки тому +1

      jop, die habens viel zu kurz gefasst

    • @CrackBitchOnCraigslist
      @CrackBitchOnCraigslist 2 роки тому

      @@felko3571 Die Frage ist wie viel und lange die Filmen durften.

  • @AlBoKa
    @AlBoKa 2 роки тому +1

    Das ist so unfassbar Interessant, danke man für deine Arbeit!

  • @Timewarp2002
    @Timewarp2002 2 роки тому +1

    Absolut geniales Video, sehr spannend und als nicht Admin ein unfassbarer Gigantismus. Tolles Video - Danke dafür!

  • @bunseN13372303
    @bunseN13372303 2 роки тому +6

    Erinnere mich noch dich damals abonniert zu haben mit vllt 400 Abos und jetzt alles explodiert :D

  • @TheHoff6300
    @TheHoff6300 2 роки тому +7

    geiles Video ! Nur eine Frage noch:
    Can it run Crysis?

  • @tobiastietgen4699
    @tobiastietgen4699 2 роки тому

    Echt ein super Video. Vielen herzlichen Dank für die ganzen Einblicke.

  • @uwebecker8880
    @uwebecker8880 2 роки тому

    Super. Sehr geiler Beitrag und großartigen Einblick in die Technik. Mega. Bitte mehr solcher Beiträge.

  • @duevi4916
    @duevi4916 2 роки тому +3

    Top Video alleine für die mention von der Benjamin Blümchen Torte

  • @Patrick-vd2iq
    @Patrick-vd2iq 2 роки тому +5

    Roman der Autofreak sagt : Falls der Diesel mal ein Zündkerzenproblem hat.." :D hihi

    • @stiegelzeine2186
      @stiegelzeine2186 2 роки тому

      Auto freak bedeutet nicht gleich diesel Fahrer es gibt ja auch Elektro Autos und Benziner und gute Autos wie ein gtr fahren ja mit Benzin weil Diesel Müll ist und zum Glück bald verboten wird

  • @eintracht-infode
    @eintracht-infode 2 роки тому

    Mega interessant, vielen Dank das du uns mitgenommen hast.

  • @Sandemann-od2dp
    @Sandemann-od2dp 2 роки тому

    Sehr cooles Video. Danke für eine Einblick in so ein Rechenzentrum. Man hat ja schon mal was gegoogelt oder gehört aber noch nie so im Detail gesehen. Immer wieder erstaunlich zu sehen was da an Technik und auch Hirnschmalz verbaut ist.

  • @Old1Papa
    @Old1Papa 2 роки тому +3

    Hammer! Ich erinnere mich an Ende der 60er Jahre, als ich (noch völlig grün hinter den Ohren) ein solches Zentrum mit den technischen Stand damals besucht hatte.
    Und ja, auch ein Großdiesel hat Zündkerzen. Zwar nicht als Funkenstrecke, aber (früher) als Glühfaden. Damit wird das Gemisch (initial) gezündet. 😉

    • @davidz1264
      @davidz1264 2 роки тому +2

      Deswegen heißen die Zündkerzen beim Diesel auch Glühkerzen 😉

    • @schreibhecht
      @schreibhecht 2 роки тому

      Deshalb heißt das Ding G l ü h kerze :-)) Im Modell-Hobby haben Motoren oft Glühkerzen. Zündkerzen wären oft zu schwer. Nur die mit mehr Hubraum haben Zündkerzen.
      Mazda hat ein Motor gebaut der hat Benzin-Selbstzündung. Den Skyaktiv X Motor. Und weil die Bedinungen zur Selbstzündung nicht immer optmal sind hat der Motor zusätzlich Zündkerzen.

    • @nilsandresen9912
      @nilsandresen9912 3 місяці тому

      Ist bei dem MTU nicht so. Der hat keine.
      Bei 50 Grad Vorwärmtemperatur zündet das Gemisch zuverlässig über Kompression

  • @f.g.287
    @f.g.287 2 роки тому +3

    Verbesserungsvorschlag: Ich hätte mir erst rot angeschaut. Damit ich danach hätte sagen können "da ist das Gleiche in grün." luul :)

  • @alexandermartin7654
    @alexandermartin7654 2 роки тому

    Echt super Einblick.
    Danke dafür

  • @leonmoto1931
    @leonmoto1931 2 роки тому

    Sehr beeindruckendes Video. Selten so viele Informationen auf einmal interessant vermittelt bekommen.

  • @Martynyuu
    @Martynyuu 2 роки тому +3

    Wo steht der 10.000 l Dieseltank? Ich frag für nen Freund xD

  • @ziwwl5707
    @ziwwl5707 2 роки тому +4

    Interessant, was andere RZ so treiben... Vergleichsweise aber doch ein eher kleines RZ, 2N (oder 2N+1) Redundanz damit saubere, A+B-Versorgung klar, Spiegel-RZ an anderem Ort, sieht nach Zertifizierung irgendwo zwischen Tier 3 oder vielleicht sogar 4 aus. Die Ordnung ist sehr Respektabel, das sieht in alten gewachsenen RZ leider eher nicht so gut aus... Von der Effizienz können sich ebenso viele andere RZ gut was abschneiden. Insgesamt sauber, Lob!

    • @RonaldSchneiderGiebenach
      @RonaldSchneiderGiebenach Рік тому

      Die Redundanz ist beim Diesel mit 2N nicht übertrieben hoch. Wenn ein Diesel in Wartung ist, ist die Redimdanz bei Stromausfall null. Bei der USV siehts gleich aus.
      Sollte also ein Bauteil an einer solchen Anlage kaputt gehen, und auffrund Lieferketten...Du weisst was ich meine, dann bist du 10 wochen mit Redundamz 1n unterwegs. Fühlt sich nicht gut an für dem Betreiber.

  • @pascal6827
    @pascal6827 2 роки тому +2

    Ich finde es wirklich mega interessant! Ich habe gestern einen Podcast über Speicherlösungen auf Netzebene gehört (Batteriespeicher, Wasserkraftwerke, Gaskraftwerke, etc.). Im übertragenen Sinne sind alle Aspekte im Rechenzentrum im kleinen Format wiederzufinden (Batteriespeicher, Dieselmotor, etc.). Sehr interessantes Video, Roman! Hammer! Großes Dankeschön auch an Dominik :)

    • @RonaldSchneiderGiebenach
      @RonaldSchneiderGiebenach Рік тому +2

      Schwungrad ist auch ab und an anzutreffen. Entweder direkt am Diesel angebaut oder separat, ähnlich wie om Video der Batterieraum. Energiemenge je nach Bauform 3 oder 20 Sekunden Volllast. Da muss der Diesel wirklich schnell anspringen und auf Vollast gehen.

  • @DerDude777
    @DerDude777 Рік тому +1

    Solche Plattenwärmetauscher haben wir auch auf der Arbeit. Die Teile sind echt super, man kann durch die Anzahl der Platten die Kühlleistung in kleinen Schritten genau auf das Level anpassen wie man es braucht. Bei uns wird Wasser aus einem Pressbecken damit gekühlt in das Rohre hineingepresst werden. Im Wasserbecken sind Platten aus Graphit (gute Gleiteigenschaften und Hitzebeständig, die Rohre kommen mit ca. 800°C glühend durch eine Schleuse ins Wasserbecken. Hinter den Platten aus Graphit kommen Platten aus Hartholz, weil die Rohre zwischen 16 und 50 Meter lang sind, sind sie ab da schon kalt genug um die Platten aus Hartholz nicht zu verbrennen. Der Abrieb des Graphits haftet mit der Zeit auf den Kühlplatten des Kühlers und dann kann man ganz einfach die Gewindestangen die den Kühler zusammen halten lösen und entnehmen und die Platten auf einer Schiene einzeln hin und her schieben wie einen Kleiderbügel auf einer Kleiderstange im Kleiderschrank. Auf die Weise ist ruck zuck der Kühler sauber und wieder fit für ein bis zwei Jahre. Schon ganz cool die Idee mit dem Kühler. 👍
    Edit:Wir schieben die Platten dann einzeln auseinander und spritzen die mit nem Dampfstrahler ab.

  • @FNFleExZ
    @FNFleExZ 2 роки тому +5

    Die Frage ist…
    Can it run crisis???

  • @HierUsernameeinfugen
    @HierUsernameeinfugen 2 роки тому +3

    Dieselmotoren haben Glühkerzen 😅

  • @cobalt_only579
    @cobalt_only579 2 роки тому +1

    Die Anlage ist wirklich beeindruckend und technisch echt gut durchdacht. Sehr interessant mal ein aktuelles Rechenzentrum von innen zusehen. Die Thematik Zündkerze Zündspule ist wirklich sowas von nebensächlich in so einem Video. Insgesamt ein sehr gutes Video sowas kannst du gerne öfter mal machen! 😉

  • @spliffy8338
    @spliffy8338 2 роки тому

    Wow vielen Dank für den Einblick super spannend das gezeigt zu bekommen! : )

  • @YellowPhoenixDE
    @YellowPhoenixDE 2 роки тому +3

    Du solltest dir vlt. nochmal das Rechenzentrum maincubes FRA-01 in Frankfurt ansehen. Die legen dort noch eine ganze Schippe drauf, vor allem hinsichtlich innovativer Ansätze beim Kühlkonzept und einem ganz anderen Design hinsichtlich Stromversorgung (Thema Ringverbund). Dennoch sehr spannendes Video und sehr lehrreich

  • @BBRaphiii
    @BBRaphiii 2 роки тому +4

    Bielefeld gibz net xDD

    • @BBRaphiii
      @BBRaphiii 2 роки тому

      Und ich freu mich über mein sfp+ 10gbit Equipment 😭🤣

    • @marcel151
      @marcel151 2 роки тому

      So langsam ist es gut oder? Alt und schon lange nicht mehr witzig.

  • @raser1509
    @raser1509 2 роки тому

    Alsolut krass. Sehr geiles Video. Sowas mal zu sehen und dann auch noch so klasse erklärt. Daumen Hoch und bitte mehr von solchen Restricted Areas.

  • @__Mr.White__
    @__Mr.White__ Рік тому

    Beeindruckend. Und sehr gut präsentiert.

  • @RicardoBischof
    @RicardoBischof 2 роки тому

    Danke für die genialen Einblicke!

  • @glotrex
    @glotrex 2 роки тому

    Hab ich mir sehr gerne angeschaut. Hab schon einige Server Landschaften gesehen, aber das hier übertrifft alles! Danke

  • @SantaKlausII
    @SantaKlausII 2 роки тому

    Mega geiler Einblick hinter die Kullissen, danke dafür

  • @Multivitamin02
    @Multivitamin02 2 роки тому +1

    Als jemand, der mit solchen Kisten sein Geld verdient, ein unfassbar spannendes Video. Was ein Datacenter. Mit lösungen, die ich so noch nicht gesehen habe (Battery-Backup ist einfach ein ganzer Raum, Notstrom durch 2 Schiffsdiesel, Tape-Library größer als ein Auto und RAM-Dichte sein Vater in der IBM-Bude)

  • @Psysis1
    @Psysis1 2 роки тому

    Wirklich verdammt interessantes Video! Danke für den Einblick!

  • @matthiasj.5765
    @matthiasj.5765 2 роки тому

    WoW bin sprachlos, was für eine Technik und Aufwand dahinter steckt. Und zu gleich mega Interessant.

  • @BenjaminRiechel
    @BenjaminRiechel 2 роки тому

    Danke, für den grandiosen Einblick.

  • @realiseeq
    @realiseeq 2 роки тому

    Sehr nice zu sehen ist einfach beeindruckend!