AI-Powered Coding: Generate Local Code Effortlessly

Поділитися
Вставка
  • Опубліковано 24 січ 2025

КОМЕНТАРІ • 44

  • @MeinDeutschkurs
    @MeinDeutschkurs Рік тому +13

    Ich würde mir echt wünschen, einen guten, lokalen Code-Generator zu haben. Momentan ist alles noch sehr in den Kinderschuhen, auch GPT-4 (Code Interpreter). Dennoch bin ich erstaunt, wie blöd meine Anfragen an GPT-4 sein können, und wie (trotzdem) lauffähig der Code ist.

    • @brntckt
      @brntckt Рік тому +2

      Meinen ersten Rechner (Atari ST, gekauft 1987) habe ich 7 Jahre lang programmiert. Zunächst Pascal, dann GfA-Basic. GPT-4 hat mir in wenigen Sekunden einen Algorithmus für die Berechnung einer Mandelbrot-Menge ("Apfelmännchen") und die grafische Darstellung rausgehauen. Ich habe in einer virtuellen Maschine (Windows unter Linux) mit einem GfA-Emulator diesen Basic-Code ans Laufen bekommen. Dieses Freizeit-Experiment ist schon ein paar Monate her. Mein erster Gedanke war :"Scheiße, dieses Monster spricht jede Sprache!"
      Nur Geduld, da geht echt die Post ab!

    • @MeinDeutschkurs
      @MeinDeutschkurs Рік тому

      @@brntckt , sicher. Ist super und natürlich erstaunlich.
      Mein Ziel wäre mal: “Schreib mir schnell ein OS, das Executeables für DOS, Windows 1 bis 11, macOS (jede Architektur, inkl. historischer Namen und Iterationen), Ubuntu, iOS, WatchOS, Android kompatibel ist, meine Hardware ist: …. 😂🤗

  • @terrax8101
    @terrax8101 Рік тому +4

    was mich mal interessieren würde bei stable code kann man der Ki auch einfach eine Neue Sprache beibringen und sie dann mit zB MDD kombinieren? das fände ich mal tatsächlich recht spannend ^^ ansonsten äußerst interessantes Video vielen Dank

  • @5ergius
    @5ergius Рік тому +1

    da hab ich bock drauf. Hab mit Stable diffusion Blut geleckt.

  • @5ergius
    @5ergius Рік тому

    hey... Hab stable Code zum laufen gebracht, sehe aber nicht deinen Promt, also was davor steht nicht 😭

  • @SezginRuhi
    @SezginRuhi Рік тому +1

    Danke

  • @Hofer2304
    @Hofer2304 Рік тому

    Wie hilfreich ist Stable Code beim Codereview?
    Kann man mit Stable Code Tests für TDD erhalten?

  • @tinkerpaper
    @tinkerpaper Рік тому +3

    Schade dass ich das LLM nicht auf meiner cpu laufen lassen kann! Ich hätte noch eine Frage: Könnte man ein ganz kleines mit ein paar parametern auf selber trainieren und dann auf einer cpu ohne probleme laufen lassen kann? Wenn Ja gibt es dazu ein Tutorial oder Github link? Super Video!

    • @Raketenclub
      @Raketenclub Рік тому

      wuerde mir auch wuenschen einfach auf cpu umzuschalkten, ich habe zeit, aber ich glaub die libs sind nicht darauf ausgelegt. gpus sind da einfach besser. ich ueberlege schon mir irgendwo nen gpu server zu mieten um mal mit stable diff zu spielen...... aber die sind sauteuer

    • @supportend
      @supportend Рік тому +1

      ​@@Raketenclub Stable Diffusion läuft auf der CPU. Habe ich seit Monaten laufen. Automatic1111, skip-torch-cuda-test. Gerade die xl-sd Modelle brauchen dann aber viel RAM.

    • @Raketenclub
      @Raketenclub Рік тому

      @@supportendhmmm, hab ich probiert, endet dann in einer webgui ud in der console hab ich massenhaftig fehler, keine bilder o aehnlich werden erzeugt. aber gut zu wissen das es geht, dann bastel ich nochmal dran rum.

    • @supportend
      @supportend Рік тому

      @@Raketenclub Ja, ich hatte eine alte Automatic1111 Version und hab die immer mal per git pull aktualisiert, die Erweiterungen, die ich verwende, in der GUI geupdatet. Funktioniert einwandfrei. Allerdings muss ich schon auf verschiedenes achten, neulich hab ich aus Versehen direkt mit dem xl-refiner Modell Bilder erstellt, die waren lustig. Genauso wenn man Denoising nicht anpasst. Bei Fehlern gebe ich die 1:1 in eine Suchmaschine ein, neuerdings habe ich einen Github Account, drum würde ich jetzt auch bei den Issues schauen (das geht auch ausgeloggt, open und closed) oder posten.

    • @supportend
      @supportend Рік тому +1

      use-cpu all habe ich auch im Startaufruf, keine Ahnung, ob das notwendig ist.

  • @cfo3049
    @cfo3049 Рік тому

    Weiß jemand wie die VSC Extension heißt?

  • @12Burton24
    @12Burton24 Рік тому +1

    Darf ich fragen, ich habe vor kurzem angefangen Coden zu lernen so klassisch mit HTML, CSS und Javascript, wenn ich jetzt all diese Videos anschaue habe ich das Gefühl, dass ich besser wieder aufhöre und nicht versuche ein Job im Coding zu kriegen, wie seht ihr das?

    • @TheMorpheusTutorials
      @TheMorpheusTutorials  Рік тому +4

      Als Entwickler machst du für gewöhnlich noch wahnsinnig viel mehr als nur zu programmieren. Dazu kommt: diese Tools sind noch weit davon entfernt menschliche Entwickler selbst im coden zu ersetzen.
      Ich hab ein etwas allgemeineres Video auf meinem anderen Kanal erstellt.
      Aber betrachte das ganze als Hilfsmittel. Wir entwickeln auch seit Jahren nicht mehr in assembly 😊 Aufgaben bleiben noch mehr als genug 😅

    • @No-no-no-no-nope
      @No-no-no-no-nope Рік тому +2

      Nicht entmutigen lassen. Am Anfang muss man eh die ganzen Grundlagen lernen und die brauchst du auch dann noch, wenn die KI den Code produziert. Am Ende ist es schon immer wichtiger gewesen die Software die man schreiben will gut zu planen und das kann dir die KI so nicht abnehmen, denn da sind viele verschiedene Personen dran beteiligt.
      Softwareentwicklung ist eben nicht stumpf Code zu schreiben, da muss man auch gut kommunizieren und im Team arbeiten können.
      Man kann sich eher freuen, dass viel von dem langweiligen Kram irgendwann wegfällt. Persönlich denke ich, dass es nie eine bessere Zeit für Entwickler gab als jetzt.
      Also bleib dran.

    • @No-no-no-no-nope
      @No-no-no-no-nope Рік тому +2

      @@TheMorpheusTutorialsdu bist auch schnell wie nen Blitz 😅

    • @12Burton24
      @12Burton24 Рік тому +2

      @@No-no-no-no-nope Danke für die Ermutigung.

    • @kaigermany_
      @kaigermany_ Рік тому

      Allein den Code zu reviewn bzw. zu fehler-korrigieren wird die nächsten Jahre wohl ein gewaltig großes Thema werden, schätze ich, weil wie bei den anderen LLMs auch schon versuchen auch die Code-Generierenden Modelle jetzt möglichst authentisch zu wirken vom output her, was aber natürlich keinesfalls fehlerfreiheit bedeutet. Und unbedachte Fehler können (im worst case) z.B. dann neue ungewollte sicherheitslücken bedeuten. Oder abstürtze durch übermäßgem Ram-Konsum, wenn z.B. ein Code generiert wurde, der versucht, alles gleichzeitig mit multithreading zu machden oder alles zu Cachen was passiert ist. (So nach dem Motto: guter Gedanke aber schlecht realisiert)
      Und bis das alles dann auch halbwegs automatisch korregiert oder entdeckt werden kann, werden noch einige Jahre ins Land gehen.

  • @Biioern
    @Biioern Рік тому +1

    Gute Erklärung 👍🏼

  • @twiky1059
    @twiky1059 Рік тому

    Kannst du bitte mal ein Video machen wie man, das zum Laufen bekommt, mir schmeißt der code nur Errors?

  • @christopherklein3829
    @christopherklein3829 Рік тому

    Danke. Kann man das Modell auch runter laden und zb in gpt4all benutzen?

  • @schlechtestergtaspielerdek3851

    Läuft das ganze auch auf AMD-Karten?

  • @Egal0190
    @Egal0190 Рік тому

    Seht ihr darin einen Vorteil mit GPT-4 in ChatGPT auf Englisch zu schreiben? Ich sehe keinen qualitativen Unterschied in den Antworten zwischen Deutsch und Englisch. Der einzige Unterschied ist, dass man als deutscher Mutterspracher im Englischen ja dann doch mal die ein oder andere englische Vokabel noch mal nachschlagen muss, was das Arbeiten auf Deutsch damit dann effizienter macht.

  • @Leonardo_A1
    @Leonardo_A1 Рік тому

    Hallo Morpheus, was mir 3cht zu Kurz kommt ... Earum sollte man überhaupt eine LLM lokal haben. Leider hast Du nur in feinem Kurzen Nebensatz gesagt, das ein Traininf zu teuer ist. Sorry das ist mir echt zu wenig.Technisch mag es interessant sein, aber Für den Verkauf von Software finde ich leider keine Pros! Will sagen, bitte ... Was iat das Ziel wie kommen wir dorthin ... was macht Sinn zu lernen und was nicht?? Danke für Dein Engagement Leonardo

    • @TheMorpheusTutorials
      @TheMorpheusTutorials  Рік тому

      Ich hab am Ende eine Playlist verlinkt. Ich hab in anderen Videos sehr ausführlich darüber gesprochen

  • @NullOderSo
    @NullOderSo Рік тому

    Ich warte ja nur drauf, dass wir bald auch in unseren heimischen CPU's cores haben werden, die für AI optimiert sind

  • @boka3461
    @boka3461 Рік тому

    🎉

  • @HowToLinux
    @HowToLinux Рік тому +2

    Das Video ist sehr leise im Vergleich zu anderen UA-cam-Videos.

  • @Raketenclub
    @Raketenclub Рік тому +1

    ich komm nich mehr hinterher und bin eh frustriert da ich keine gpu habe ;( grmlmpf

  • @tunk930
    @tunk930 Рік тому

    Copy paste doch einfach das stability equivalent in den gpt4 interpreter um zu sehen ob es funktioniert

  • @boka3461
    @boka3461 Рік тому

    Ich liebe Mac's dafür, ich kann mit 32 gb ram wenns drauf ankommt die 70B version von llama wenn auch nicht flüssig laufen lassen. 13B Version läuft mit hoher geschwindigkeit

  • @fly1ngsh33p7
    @fly1ngsh33p7 Рік тому

    Wenn es das jetzt noch für AMD GPUs gäbe......

  • @nerdtopiade
    @nerdtopiade Рік тому

    Um fair zu sein du hast wahrscheinlich keine 3000 euro teure A irgendwas gpu von Nvidia in deinem System ,weshalb stable code auch länger braucht wie chatgpt . Ich hatte versucht stable code in oobabooga zu nutzen rein als transformer lief nicht so gut .

    • @TheMorpheusTutorials
      @TheMorpheusTutorials  Рік тому +1

      2400€ schon, aber die H100 ist eher bei 30.000^^
      Aber ja, klar, du hast schon Recht. Damit muss es dann aber am Ende konkurrieren

    • @nerdtopiade
      @nerdtopiade Рік тому

      @@TheMorpheusTutorials ok damit hätte ich jetzt nicht gerechnet .

  • @cfo3049
    @cfo3049 Рік тому

    bisschen leise das Video 😉