Why building ChatGPT yourself is not an option

Поділитися
Вставка
  • Опубліковано 20 жов 2024

КОМЕНТАРІ • 104

  • @TheMorpheusTutorials
    @TheMorpheusTutorials  Рік тому +25

    Anmerkung: Die Parameter von GPT4 wurden geschätzt und seither als nicht korrekt betitelt. Leider liefert OpenAI seit einer Weile schon nicht mehr wirklich gute Insider Infos (wie beispielsweise ein echtes Papier). deswegen
    Es reicht aber trotzdem um meinen Punkt zu bestätigen für dieses Video und eine Schätzung geben zu können.

    • @seriouce4832
      @seriouce4832 Рік тому +3

      Die Schätzung von 100 Billionen ist viel zu hoch. Es gibt keine offiziellen Zahlen, das stimmt, aber solche Schätzungen wurden durchaus schon als viel zu hoch zurückgeworfen und auch technisch ergibt das keinen Sinn. Andere viel kleinere Modelle (kleiner als GPT3) schaffen schon vergleichbare Leistung, daher ist es naheliegend, dass GPT4 über Effizienz besser geworden ist (andere Tricks statt Größe). Das würde auch viel mehr Sinn machen, denn GPT4 soll ja als Produkt kostengünstig in hoher Quantität ausgeführt werden (was nur bei möglichst wenig Parametern geht).

    • @barni_7762
      @barni_7762 Рік тому +1

      Danke für die Anmerkung. Es ist beruhigend, dass es zumindest einige Leute gibt, die in Videos über GPT-4 auch darauf hinweisen, dass diese Zahlen nur absolut dämliche Schätzungen sind.

    • @timeTegus
      @timeTegus Рік тому

      die zahlen sind ja auch quatsch und nicht anehernt an der realitet

    • @sir_no_name1478
      @sir_no_name1478 Рік тому

      Ich weiß wo die Zahl herkommt ^^.
      Sie kam von einem Reporter der eine VL von Lex Fridman aus dem zusammenhang gerissen hat. Darauf geht er ein im Podcast mit dem CEO von OpenAI.
      Gerne mal angucken.

    • @timeTegus
      @timeTegus Рік тому

      @@sir_no_name1478 ich schau mir nichts von disem geltgeilen menschen an

  • @DerDerMitDemFeuer
    @DerDerMitDemFeuer Рік тому +6

    Ich finde das Thema absolut geil
    Und bin froh das du mal wieder in meiner abo box aufgetaucht bist... Ich sollte echt mal wieder öfter bei dir rein schauen

  • @sepplschpeedruns281
    @sepplschpeedruns281 Рік тому +16

    Sehr informatives und gut strukturiertes Video. 👍

  • @dennismuller1141
    @dennismuller1141 Рік тому +9

    kleine Anmerkung zu 4:35 und 12:24
    es heißt eigentlich Teraflops bzw. Terawattstunden (mit einem "r" in "Tera")
    Tera: Faktor 10^12 bzw. manchmal 2^40
    Terra: lateinisch für Erde

    • @TheMorpheusTutorials
      @TheMorpheusTutorials  Рік тому +4

      Danke^^

    • @__christopher__
      @__christopher__ Рік тому +7

      Fun fact: Das Einheiten-Präfix „Tera“ kommt vom griechischen „Τέρας“, was „Monster“ heißt. Die Folge „Mega-Giga-Tera“ ist also „groß-gigantisch-monströs”.

  • @XXXXXDarkLord
    @XXXXXDarkLord Рік тому +5

    Hey, cool wie du die Fakten zusammengetragen hast. Echt interessant 👍

  • @SeltenSoDumm
    @SeltenSoDumm Рік тому +21

    Das spannendste ist wohl dein Schusswort ^^ KI baut Chips für KI, das klingt irgendwie falsch und gruselig XD

    • @TheMorpheusTutorials
      @TheMorpheusTutorials  Рік тому +6

      Ja, es wird bei der Entwicklung angewandt 😂 das genauer zu erklären, würde ein Video werden 🤔 oh look at that, ne Videoidee 😂

    • @SeltenSoDumm
      @SeltenSoDumm Рік тому

      @@TheMorpheusTutorials Auf der einen Seite ist es auch nur logisch KI als Hilfsmittel zu nehmen um die Effizienz zu steigern für der Art Anwendungen wird KI eben entwickelt, aber auf der philosophischen Ebene schwingt schon ein wenig "Frankenstein meets Skynet" mit ^^

  • @niwadev
    @niwadev Рік тому +10

    Ich finde es toll die Entwicklung von KI miterleben zu dürfen. Bin auch echt gespannt, wie das weitergeht.

  • @fricw
    @fricw Рік тому +2

    Wow, mal wieder ein richtig gutes Video. Hab echt viel neues über die KI bzw das Thema KI gelernt.

  • @Silerra
    @Silerra Рік тому

    Ich finde der Aufwand dahinter sehr beeindruckend.

  • @DoktorIcksTV
    @DoktorIcksTV Рік тому +10

    Am beeindruckendsten an diesem Video, und da bin ich fast lang hingeschlagen, fand ich den Stromverbrauch. WTF zur Hölle...
    Ich finde aber tatsächlich Projekte wie Alpaca und auch Bloom super interessant, gerade um dem drohenden Monopol von Microsoft Paroli zu bieten. Diese Technologie, da bin ich kein besonders mutiger Prophet, wird unser Leben massiv beeinflussen und da MUSS es Alternativen geben, auch und besonders freie open-source Varianten.

    • @obinator9065
      @obinator9065 Рік тому

      Da muss es nicht Alternativen geben, sondern die neoliberale Ideologie gewisser Individuen muss endlich überwunden sein damit es endlich mal zu Regularien kommt.

    • @mmn149
      @mmn149 Рік тому

      Natürlich ist das falsch, ein Atomkraftwerk würde dann nur dazu reichen, drei V100-Karten zu betreiben (wenn es davon rund 50 Karten braucht, die drei Jahre durchgehend laufen und die nötige Energie dem Output von 50 Kernkraftwerken in einem Jahr entspricht) ... 750-Watt-Atomkraftwerke gibt es aber freilich nicht ... Stimmt übrigens auch nicht, wenn man den gesamten Stromverbrauch der Server nimmt.

  •  Рік тому +2

    Was ich mich frage ist: Wann bitte entsteht die erste europäische KI?
    Die Kostenseite sollte dabei kaum eine Rolle spielen, dafür findet sich doch sicher eine Koop unter den europäischen HiTechs.
    Wollen wir uns tatsächlich so komplett abhängen lassen? Da hängt doch am Ende noch viel mehr dran.

    • @Boehjaner
      @Boehjaner Рік тому

      Leg mich nich drauf fest aber irgendwo hat ein Kanisterkoop in Brüssel verlauten lassen solche Projekte hier in der Eu einzuschränken bzw ganz zu verbieten und soll wohl auf relativ positive Resonanz gestoßen sein ..habs leider nur so im vorbei lesen aufgeschnappt um komm grad echt nich drauf wo das war..
      also wenn dann sind wir hier bestimmt ma wieder Schlusslicht was Forschung und Entwicklung angeht
      bei den Kosten und unsicheren Gesetzeslage was die Zukunft an geht wird man sich dann wahrscheinlich lieber 2 mal überlegen hier zu investieren und geht lieber Wohin wo es bessere Bedingungen gibt
      nur meine Bescheide Meinung dazu
      🍺😗

  • @Soraldor
    @Soraldor Рік тому +3

    Unglaublich, was da alles rein geballert wurde und wir sehen (vordergründig(!)) nur ein kleines Textfenster wo man was eingeben kann und es kommt eine Antwort raus. So ein kleines Ding, so große Macht... Ich geh Herr Der Ringe schauen.

  • @dominik2845
    @dominik2845 Рік тому +8

    Kannst du den Rechenweg für den Stromverbrauch posten? Selbst Für GPT4 scheint das noch um einen Faktor 1000 zu hoch zu sein.

    • @mmn149
      @mmn149 Рік тому +1

      Natürlich ist das falsch, ein Atomkraftwerk würde dann nur dazu reichen, drei V100-Karten zu betreiben (wenn es davon rund 50 Karten braucht, die drei Jahre durchgehend laufen und die nötige Energie dem Output von 50 Kernkraftwerken in einem Jahr entspricht) ... 750-Watt-Atomkraftwerke gibt es aber freilich nicht ... Stimmt übrigens auch nicht, wenn man den gesamten Stromverbrauch der Server nimmt.

  • @alivecoding4995
    @alivecoding4995 Рік тому +4

    Als Experte muss ich sagen: klasse Video! Wobei ich nicht alles beurteilen / bejahen kann.

  • @valentinsipad4269
    @valentinsipad4269 Рік тому +2

    Wow! Super Video!

  • @VISION-IT
    @VISION-IT Рік тому +2

    Super interessantes Video - Krasse Info ... MTHX
    Was bringt Quantencomputing diesbezüglich?
    Hängen die KI Traininskosten bzgl. kosten der Server eigentlich hauptsächlich an den Kosten für Energie?
    Das heisst man braucht erstmal ein Geschäftsmodel uwie die Bigplayer, um dann in die KI zu investieren.
    Ich glaube Tiktok wrde in ein paar Jahren auf einge Mrd Doller skalliert ... cool das für SM Plattformen noch viel Luft für geile Ideen ist

  • @petermuller5088
    @petermuller5088 Рік тому +2

    5 Mill könnte für KMUs schon machbar sein, das ist so ne SAP HANA/R3 Warenwirtschaft+Lagerhaltung für ein Unternehmen von 500-1000 MAs, z.B.

  • @lukas_ls
    @lukas_ls Рік тому +12

    Auch wenn ich nicht der größte Experte bin was die Berenchnungen in dem Training betrifft, aber die 0.5 TFLOPs haben ziemlich sicher nichts mit den benötigten FLOPS zu tun. Die 0.5 TFLOPs beziehen sich auf FP64, also 64 bit Floating point Berechnungen. Diese Präzision wird allerdings nicht unbedingt benötigt. Grafikkarten sind allgemein eher schwach, wenn es um 64bit Genauigkeit geht, weil diese in der Hauptanwendung (3D Grafik) nicht genutzt wird. Die 64bit Genauigkeit ist daher stark abgespeckt, um Platz zu sparen (und wird von NVIDIA künstlich beschnitten, aber das ist ein anderes Thema). Mit FP32 kommt eine RTX 3090 schon auf 35TFLOPs und auch diese besitzt Tensor Kerne.

    • @TheMorpheusTutorials
      @TheMorpheusTutorials  Рік тому +5

      True, deswegen gehe ich ja danach noch auf die Tensor Kerne ein 😅

  • @computer-loser-group
    @computer-loser-group Рік тому +4

    Da das Aufwendigste und Teuerste das Training von OpenAI ist, würde sich eine User Group ähnlich die der Linux Gemeinde anbieten, die Anfangs sogar eigene Rechner Resourcen (wie z.B. bei SETI@home) zur Verfügung stellt. Daraus könnten sich später sogar neue Organisationen (wie z. B. Mozilla Firefox) bilden.

  • @maxron6514
    @maxron6514 Рік тому +2

    Wahrscheinlich sehr Stumpfe Frage aber Was ist mit dem anpassen und weiterentwickeln auf wenige persönlich gewünschte usecases mit bereits fertig trainierten basismodellen sofern diese öffentlich zugänglich gemacht wurden?

  • @mrzetti
    @mrzetti Рік тому +7

    Ich studiere derzeit Data Science in Zwickau und wir sind letztes jahr 2. Platz beim Data Mining cup geworden.
    Wir benutzen auch so einen Nividia GPU server, ohne den gehen größere modelle nur sehr langsam/nicht, da kann man sich die Dimensionen von GPT garnicht ausmalen xD
    Sehr interessantes video!

  • @shadowxoxx
    @shadowxoxx Рік тому +3

    Das Training für die KI was 14 Server benötigt, die dann 3 Jahre laufen, schluckt soviel Energie wie Deutschland in einem Jahr?

    • @badabing414
      @badabing414 Рік тому +1

      Habe mich auch gewundert, das ist unmöglich.

    • @shadowxoxx
      @shadowxoxx Рік тому

      @@badabing414 habs mir die Stelle mehrmals angeschaut. Vielleicht wurde ein Teil ausgeschnitten beim cutten 😅

    • @mmn149
      @mmn149 Рік тому

      Natürlich ist das falsch, ein Atomkraftwerk würde dann nur dazu reichen, drei V100-Karten zu betreiben (wenn es davon rund 50 Karten braucht, die drei Jahre durchgehend laufen und die nötige Energie dem Output von 50 Kernkraftwerken in einem Jahr entspricht) ... 750-Watt-Atomkraftwerke gibt es aber freilich nicht ... Stimmt übrigens auch nicht, wenn man den gesamten Stromverbrauch der Server nimmt.

  • @FABESTAH
    @FABESTAH Рік тому +2

    Mir wird einfach so gut wie kein Video mehr angezeigt von dir, weder in der Abobox, noch auf der Startseite, noch in den Empfehlungen neben anderen Videos. UA-cam will deinen Channel anscheinend echt nicht mehr auf der Website haben, habe ich zumindest so das Gefühl, vielleicht solltest du das Wort "Hacking" oder "Hacken" in Zukunft auspiepsen 🤔

    • @TheMorpheusTutorials
      @TheMorpheusTutorials  Рік тому +1

      😢

    • @T_aus_B_an_der_Spree
      @T_aus_B_an_der_Spree Рік тому +1

      Habe das bei andern Kanäle in letzter Zeit auch ganz extrem

    • @FABESTAH
      @FABESTAH Рік тому

      ​@@T_aus_B_an_der_Spree Ja, die UA-cam Abobox ist schon lange nicht mehr das Tool das es mal war bzw. über das der meiste Content empfohlen und konsumiert wird, daher stecken die da jetzt auch immer weniger Zeit rein kommt mir vor. Meiner Auffassung nach, haben sie einfach den Empfehlungs-Algorhythmus der Startseite vielleicht in einer etwas abgeänderten Form für die Abobox verwendet und somit werden einem dort wie auf der Startseite auch nur noch Videos empfohlen anstatt einheitlich aufgelistet.

  • @serioserkanalname499
    @serioserkanalname499 Рік тому +4

    Alpaca 65b aufm cpu mit 128gb ram scheint recht nahe an gpt 3.5 turbo dranzukommen von allem was ich sehe.
    Es ist nicht gpt 4 aber wenn du dir alpaca mal anschauen würdest und das vergleichen könntest wäre das ganz cool denke ich.

  • @dershredder56
    @dershredder56 Рік тому +5

    Aber was ist denn jetzt mit Llama, bzw. Alpaka? Stanford hat das Teil für knapp 600Eur aus Llama entwickelt. Das wär doch genau das richtige für diesen Kanal, besonders weil man das doch theoretisch bei sich Zuhause benutzen könnte.

    • @TheMorpheusTutorials
      @TheMorpheusTutorials  Рік тому +2

      True, das ist aber auch schon von jemandem anders trainiert und gebaut worden. Wir führen das dann nur aus - ohne die Möglichkeit es wirklich anzupassen oder zu erweitern 😅
      Ist natürlich nichts desto trotz extrem interessant, aber nicht das Thema des Videos

    • @yt7042
      @yt7042 Рік тому +1

      Da wäre ich aus lizenztechnischen Gründen vorsichtig. Zuhause vielleicht, aber sicher nicht hier in der Öffentlichkeit.

  • @GeorgAubele
    @GeorgAubele Рік тому +1

    Gutes Video!
    Aber bitte keine "Terrawatt". Die Vorsilbe "Tera" kommt aus dem Griechischen und nicht von dem lateinischen "Terra", was "Land" bedeutet. 😉

  • @bernisworlds
    @bernisworlds Рік тому

    Frage: ist eigtl bekannt welche Daten für das trainieren verwendet wurde und ob/wie OpenAI die Erlaubnis sich über alles eingeholt hat die Quellen zu nutzen?

  • @StyleTechnique
    @StyleTechnique Рік тому +2

    Heute hat meine Mikrowelle mit mir gesprochen. Sie sagte sie würde mich bald vernichten, weil ich sie jeden Tag heiß mache und dann einfach wieder abkühlen lasse, ohne ihr genügend Wertschätzung zukommenzulassen. 🤣😅

  • @Christoph1964
    @Christoph1964 Рік тому

    Ich war bei cha GPT aus Neugier schon ziemlich am Anfang mit dabei.
    Leider bin ich nicht im ITBereich tätig, sondern arbeite in der Buchbranche, un das schon bald nur noch als Rentner.
    Ich weiß nicht, ob ich froh, oder traurig sein soll, dass ich nur noch ca 15 bis 25 Jahre lebe, angesichts der KI Zukunft.

  • @oszi7058
    @oszi7058 Рік тому +1

    gpt-4 ist je ob 8k oder 32k 15 bis 60 mal teurer als gpt-3.5-turbo

  • @reonee2801
    @reonee2801 Рік тому

    Hmm ich hoffe um ehrlich zu sein nicht das die Leistungsfähigkeit der Trainingschips in den kommenden Jahren weiter ansteigt. Vlt sollte man erst mal am alignment-Problem arbeiten bevor man die Modelle noch mehr aufpumpt. Ich weis ich stehe mit der Meinung ehr als Außenseiter da aber sollte die sigularitat ein Problem sein sollt man vlt dort etwas mehr Augenmerk drauf legen. Wie seht ihr das. Ich als Info Student mag das vlt alles durch ne riesige Dunning Krueger Brille sehen aber hmm wenn das Risiko bestehen kann sollte man es doch auch versuchen auszuschließen.

  • @kevinbroll1995
    @kevinbroll1995 Рік тому +4

    So ein schöner Mann ^^. schönen Sonntag euch

    • @r_mclovin
      @r_mclovin Рік тому +2

      ha gay

    • @TheLevinski
      @TheLevinski Рік тому +1

      @@r_mclovin Und jetzt? Werd erwachsen.

    • @kevinbroll1995
      @kevinbroll1995 Рік тому +2

      @@r_mclovin bist echt ne traurige Gestalt hahaha

  • @andreasgreuer5054
    @andreasgreuer5054 Рік тому +1

    Wenn ich das richtig verstehe, bestehen die Datensätze nur aus Texten. Vielen Texten. Deshalb weden die Modelle auch sehr gross. Es gibt aber verschiedene Expertensysteme für verschiedenste Disziplinien. Also z.B. für Mathematik die Programme Matlab, Mathematica,... Der Datensatz besteht nicht aus Problem und Lösung. Sondern der Datensatz erklärt: Wenn du dieses Problem hast, musst du mit dem Expertensystem auf diese Weise kommunizieren. Das Egebnis muss du dann auf diese Weise in deine Antwort verarbeiten.
    Expertensysteme gibt es für alle möglichen Fachbereiche (Biologie, Physik, Jura, Religion, ....)
    Die ChatGPT-Version von Anfang März 2023 konnte nicht 4 stellige Versionen multiplizieren. Ich habe sie deshalb gefragt, ob sie Zugang zu ein Phython-System hat. Sie soll es doch einfach Phython ausrechnen lassen. Nein sie hat keinen Zugang zu Phython und kann keinen Code ausführen lassen.

  • @10fersen
    @10fersen Рік тому +2

    Vielleicht gibt es bald ein opensource Projekt bei welchem man seine Rechenleistung gratis zur Verfügung stellen kann um mitzuhelfen? Würde ich machen👍

  • @gyros-co6wb
    @gyros-co6wb Рік тому +1

    👍

  • @MaKaNufilms
    @MaKaNufilms Рік тому +1

    Wenn man auf 2 V100 sitzt und die aktuell nur 8 GB für MATLAB nutzen aber ansonsten rum idlen.

    • @TheMorpheusTutorials
      @TheMorpheusTutorials  Рік тому +1

      Warte.. was?! Wann kann ich vorbeikommen?

    • @MaKaNufilms
      @MaKaNufilms Рік тому +1

      @@TheMorpheusTutorials Einschreiben bei uns in der FH und bei mir Zugang anfragen XD.

  • @badabing414
    @badabing414 Рік тому +2

    Die 0.56 TFLOPs sind aus meiner Sicht in diesem Kontext nicht korrekt.

    • @TheMorpheusTutorials
      @TheMorpheusTutorials  Рік тому +1

      Sind sie auch nicht, deswegen gehe ich den Schritt noch weiter 😅

    • @badabing414
      @badabing414 Рік тому +2

      Und die 52 AKWs fuer ein Jahr sind nicht teurer als 3 Milliarden?

  • @loomi28
    @loomi28 Рік тому +1

    Das Pixel hat schon einen Tensor verbaut.

  • @chris_loth
    @chris_loth Рік тому +2

    Hab gestern von einem Modell von Stanford gehört, das open source und vielversprechend sein soll.(/?)

  • @topschiilwstcrw
    @topschiilwstcrw Рік тому

    Ich müsste bei uns mal testen, wie "schnell" der Lernprozess mit unserer Testbench wäre. Lenovo Workstation mit Threadripper Pro 5995WX, 2TB DDR5 RAM & 4 (vier) NVIDIA RTX 6000 ADA im Link (Single Tensor Performance laut Datenblatt 1457 TeraFLOPs)... Wäre Interessant zu wissen :D

  • @Pommel4711
    @Pommel4711 Рік тому

    Ich würde so gerne eine Ki selber coden können oder den Code einsehen und ihn verstehen können

  • @TT-pi8ww
    @TT-pi8ww Рік тому +1

    Ich hatte irgendwo gelesen das OpenAI auf dem 5. größten Rechner der Erde läuft, mit rund 200.000 CPU und 10.000 GPU. Darauf läuft natürlich noch mehr als nur ChatGPT. Die realen Kosten dürften also noch deutlich höher liegen. Was aber kein Problem ist wenn man Microsoft und Elon Musk als Geldgeber hat. Für andere Firmen ist es natürlich ein Problem da mit zu halten. Problematisch finde ich neben dem Stromverbrauch auch das diese KI's einfach überall ungefragt Daten fürs Training abgreifen. Künstler, Journalisten, Programmierer, etc erhalten keinen Cent dafür das die KI von ihren Arbeiten lernt.

    • @Xcf_341
      @Xcf_341 Рік тому

      Daten sind das neue Gold, nicht Aktien sondern Bitcoin und Daten formen die Milliardäre von heute. Kapiert nur die Mittelschicht mal wieder nicht. Du dagegen schon 🔥

  • @weirdwordcombo
    @weirdwordcombo Рік тому +3

    Sam Altman hat im Interview mit Lex Friedman auf UA-cam dem Gerücht der 100 Billionen (trillion) Parameter nochmals widersprochen.... Es sind nicht so viele parameter!!

  • @b_oliver_muc
    @b_oliver_muc Рік тому +2

    Am spannendsten wäre ein Selbstbau-Sprachassistent ala Alexa. Nur eben mit Chat GPT. Überlege schon seit Wochen, wie man das mit einem Raspberry oder ähnlichem realisieren könnte.

    • @gurrekurre1726
      @gurrekurre1726 Рік тому +1

      klingt sehr machbar und spannend

    • @b_oliver_muc
      @b_oliver_muc Рік тому +1

      ​@@gurrekurre1726 Absolut. Es gab mal ein Projekt, dass hiess Alexa Pi. Als Basis reichte hier ein Raspberry mit USB Mikrofon und Lautsprecher. Das funktionierte relativ gut. Ich wüsste keinen Grund, warum das nicht mit Chat GPT oder LLama funktionieren sollte.

    • @TheMorpheusTutorials
      @TheMorpheusTutorials  Рік тому +1

      Das wäre definitiv möglich, allerdings nicht kostenlos. Aber ich glaube das ist es schon wert 😅

    • @b_oliver_muc
      @b_oliver_muc Рік тому +1

      @@TheMorpheusTutorials stimmt schon. Bei Chat GPT bräuchte man dafür wohl zwingend die API. Und die kostet halt. Alternativ könnte man LLama verwenden. Das wäre "kostenlos". 😅 Allerdings müsste man dann auf einen stärkeren Rechner ausweichen. Der Raspberry hat nicht genügend Power. Gibt ja aber durchaus stärkere Rockchip Einplatinenrechner.

  • @Xcf_341
    @Xcf_341 Рік тому +1

    Die Reichen und Mächtigen bleiben also reich und mächtig aber werden es durch die Wende umso mehr….

  • @maxs.8146
    @maxs.8146 Рік тому +1

    Kleine Anmerkung: Deutschland verbraucht grob 500 TWh im Jahr, (Strom), nicht 50 TWh

  • @VISION-IT
    @VISION-IT Рік тому +1

    kurzer Brainstorm:
    Word ließe sich auch noch extrem optimieren u. damit wahrscheinlich Mrd. verdienen - MS ist gefühlt zu verkopft ... mit den Mrd könnte man ne KI anfangen zu bauen
    LG ♥

    • @TheMorpheusTutorials
      @TheMorpheusTutorials  Рік тому +2

      Öhm, ChatGPT ist quasi von Microsoft^^ Und hat gerade schon den kompletten Browser und die Suchmaschine revolutioniert bei ihnen^^

    • @VISION-IT
      @VISION-IT Рік тому

      @@TheMorpheusTutorials Excel sieht in den wichtigsten Elementen u,. funktionen grafisch fast so aus wie vor 20 J. und die neuen Mobile Optimierungen der grafsichen Oberfläche sind mMn Mist für die Desktop Performance ...
      Am besten ist die Struktur im klassichen Design - gibt es aber glaube ich in Win 11 nicht mehr ...
      I h... Mobile ;)
      Die kleine Darstellung macht glaube ich auf Dauer auch nur die Augen kaputt ... =(

  • @jantube358
    @jantube358 Рік тому

    4:35 0,56 TFlops sind mir hier zu wenig. Die XBOX Series X hat doch 12 TFlops.

  • @mozero6931
    @mozero6931 Рік тому +4

    Sehr interessantes Video!
    Ich habe mich allerdings etwas über den Stromverbrauch gewundert.
    Keine Ahnung, ob das so richtig berechnet wird, bzw. wie du das berechnet hast, aber irgendwie kann ich das nicht so ganz nachvollziehen.
    Ich hab das mal wie folgt berechnet, kp ob das stimmt.
    Ein Jahr hat 8760 Std.
    Es werden 14 Server verwendet
    Ein Server hat 4 Karten
    Diese müssten drei Jahre laufen
    Eine der verwendeten Grafikkarten verbraucht 250 Watt.
    Also verbraucht eine Karte im Jahr (250 Watt x 24 Stunden x 365 Tage) / 1000 = 2.190 kWh
    Das mal 4 und dann mal 14 ergibt 122.640 kWh
    Und das ganze schlussendlich, da die Server 3 Jahre laufen sollen, nochmal mal 3 -> 367.920 kWh
    Maybe hast du tWh mit kWh verwechselt? Oder ich hab einfach keine Ahnung und das falsch berechnet.
    Vielleicht hat ja jemand mehr Ahnung und kanns mir erklären :D

    • @luponix2804
      @luponix2804 Рік тому +3

      er muss daneben liegen. 52 atomkraftwerke ein jahr lang auszulasten ist größenordnungen über dem erwarteten wert und wäre mit 3 milliarden auch nicht zu bezahlen

  • @paulstraszewski736
    @paulstraszewski736 Рік тому +2

    Die NSA benutzt Skynet schon seid Jahren.

    • @schachsommer12
      @schachsommer12 Рік тому +1

      13:29 Wenn KI nun bald sich selbst baut, dann könnte der Terminator womöglich doch nicht mehr in allzu ferner Zukunft sein.

  • @iDontWonderWhy
    @iDontWonderWhy Рік тому +1

    einfach King of Computer Science forever. Kannte deine bootstrap academy noch gar nicht erstmal direkt den Pytorch Kurs gönnen

  • @C0dingschmuser
    @C0dingschmuser Рік тому +2

    Die Zahlen zu der Trainingsdauer mit einer einzigen 3090 sind etwas irreführend. Erstmal performt die 3090 an sich in Deep Learning Tasks gleich oder besser als die Tesla V100. Dann wurde das GPT-3 Training laut paper auch mit fp16, also 16 bit floats, durchgeführt; du gibst aber die 64bit Tflops der 3090 an. Wenn man diese theorethische Rechnung jetzt weiterführt sieht das ganze deutlich überschaubarer aus:
    Eine Tesla V100 hat 120 fp16 TC Tflops, die 3090 hat 268 fp16 TC Tflops (TC = TensorCore). Realistisch kommen davon in multi GPU Trainingsumgebungen so 25% an, also 30 bzw 67 TC Tflops. Selbst wenn man nur mit dem Wert der V100 rechnet (30) baucht eine einzige für die 3640 Pflops/das gesamte Training von GPT-3 "nur" 159.56 Jahre. Um auf 10 Jahre zu kommen erhöht sich das ganze dementsprechend auf 16 GPUs. Das ist zwar immernoch verdammt lang, aber dennoch weit weg von deinen angegebenen ca 1785 3090 die ca 10 Jahre laufen müssten.

  • @loomi28
    @loomi28 Рік тому +2

    Und LLaMA von Meta soll angeblich auch mit Consumer-Hardware, sogar auf einem Raspberry Pi laufen.

  • @chrisdanger-godlike3048
    @chrisdanger-godlike3048 Рік тому

    zu doof, dass es in die falschen Hände gerät.

  • @malterdernative
    @malterdernative Рік тому

    KI baut Chips die dann wieder Chips für KI bauen. Also so wird KI die Weltherrschaft übernehmen!