Ich würde mir echt wünschen, einen guten, lokalen Code-Generator zu haben. Momentan ist alles noch sehr in den Kinderschuhen, auch GPT-4 (Code Interpreter). Dennoch bin ich erstaunt, wie blöd meine Anfragen an GPT-4 sein können, und wie (trotzdem) lauffähig der Code ist.
Meinen ersten Rechner (Atari ST, gekauft 1987) habe ich 7 Jahre lang programmiert. Zunächst Pascal, dann GfA-Basic. GPT-4 hat mir in wenigen Sekunden einen Algorithmus für die Berechnung einer Mandelbrot-Menge ("Apfelmännchen") und die grafische Darstellung rausgehauen. Ich habe in einer virtuellen Maschine (Windows unter Linux) mit einem GfA-Emulator diesen Basic-Code ans Laufen bekommen. Dieses Freizeit-Experiment ist schon ein paar Monate her. Mein erster Gedanke war :"Scheiße, dieses Monster spricht jede Sprache!" Nur Geduld, da geht echt die Post ab!
@@brntckt , sicher. Ist super und natürlich erstaunlich. Mein Ziel wäre mal: “Schreib mir schnell ein OS, das Executeables für DOS, Windows 1 bis 11, macOS (jede Architektur, inkl. historischer Namen und Iterationen), Ubuntu, iOS, WatchOS, Android kompatibel ist, meine Hardware ist: …. 😂🤗
was mich mal interessieren würde bei stable code kann man der Ki auch einfach eine Neue Sprache beibringen und sie dann mit zB MDD kombinieren? das fände ich mal tatsächlich recht spannend ^^ ansonsten äußerst interessantes Video vielen Dank
Schade dass ich das LLM nicht auf meiner cpu laufen lassen kann! Ich hätte noch eine Frage: Könnte man ein ganz kleines mit ein paar parametern auf selber trainieren und dann auf einer cpu ohne probleme laufen lassen kann? Wenn Ja gibt es dazu ein Tutorial oder Github link? Super Video!
wuerde mir auch wuenschen einfach auf cpu umzuschalkten, ich habe zeit, aber ich glaub die libs sind nicht darauf ausgelegt. gpus sind da einfach besser. ich ueberlege schon mir irgendwo nen gpu server zu mieten um mal mit stable diff zu spielen...... aber die sind sauteuer
@@Raketenclub Stable Diffusion läuft auf der CPU. Habe ich seit Monaten laufen. Automatic1111, skip-torch-cuda-test. Gerade die xl-sd Modelle brauchen dann aber viel RAM.
@@supportendhmmm, hab ich probiert, endet dann in einer webgui ud in der console hab ich massenhaftig fehler, keine bilder o aehnlich werden erzeugt. aber gut zu wissen das es geht, dann bastel ich nochmal dran rum.
@@Raketenclub Ja, ich hatte eine alte Automatic1111 Version und hab die immer mal per git pull aktualisiert, die Erweiterungen, die ich verwende, in der GUI geupdatet. Funktioniert einwandfrei. Allerdings muss ich schon auf verschiedenes achten, neulich hab ich aus Versehen direkt mit dem xl-refiner Modell Bilder erstellt, die waren lustig. Genauso wenn man Denoising nicht anpasst. Bei Fehlern gebe ich die 1:1 in eine Suchmaschine ein, neuerdings habe ich einen Github Account, drum würde ich jetzt auch bei den Issues schauen (das geht auch ausgeloggt, open und closed) oder posten.
Darf ich fragen, ich habe vor kurzem angefangen Coden zu lernen so klassisch mit HTML, CSS und Javascript, wenn ich jetzt all diese Videos anschaue habe ich das Gefühl, dass ich besser wieder aufhöre und nicht versuche ein Job im Coding zu kriegen, wie seht ihr das?
Als Entwickler machst du für gewöhnlich noch wahnsinnig viel mehr als nur zu programmieren. Dazu kommt: diese Tools sind noch weit davon entfernt menschliche Entwickler selbst im coden zu ersetzen. Ich hab ein etwas allgemeineres Video auf meinem anderen Kanal erstellt. Aber betrachte das ganze als Hilfsmittel. Wir entwickeln auch seit Jahren nicht mehr in assembly 😊 Aufgaben bleiben noch mehr als genug 😅
Nicht entmutigen lassen. Am Anfang muss man eh die ganzen Grundlagen lernen und die brauchst du auch dann noch, wenn die KI den Code produziert. Am Ende ist es schon immer wichtiger gewesen die Software die man schreiben will gut zu planen und das kann dir die KI so nicht abnehmen, denn da sind viele verschiedene Personen dran beteiligt. Softwareentwicklung ist eben nicht stumpf Code zu schreiben, da muss man auch gut kommunizieren und im Team arbeiten können. Man kann sich eher freuen, dass viel von dem langweiligen Kram irgendwann wegfällt. Persönlich denke ich, dass es nie eine bessere Zeit für Entwickler gab als jetzt. Also bleib dran.
Allein den Code zu reviewn bzw. zu fehler-korrigieren wird die nächsten Jahre wohl ein gewaltig großes Thema werden, schätze ich, weil wie bei den anderen LLMs auch schon versuchen auch die Code-Generierenden Modelle jetzt möglichst authentisch zu wirken vom output her, was aber natürlich keinesfalls fehlerfreiheit bedeutet. Und unbedachte Fehler können (im worst case) z.B. dann neue ungewollte sicherheitslücken bedeuten. Oder abstürtze durch übermäßgem Ram-Konsum, wenn z.B. ein Code generiert wurde, der versucht, alles gleichzeitig mit multithreading zu machden oder alles zu Cachen was passiert ist. (So nach dem Motto: guter Gedanke aber schlecht realisiert) Und bis das alles dann auch halbwegs automatisch korregiert oder entdeckt werden kann, werden noch einige Jahre ins Land gehen.
Seht ihr darin einen Vorteil mit GPT-4 in ChatGPT auf Englisch zu schreiben? Ich sehe keinen qualitativen Unterschied in den Antworten zwischen Deutsch und Englisch. Der einzige Unterschied ist, dass man als deutscher Mutterspracher im Englischen ja dann doch mal die ein oder andere englische Vokabel noch mal nachschlagen muss, was das Arbeiten auf Deutsch damit dann effizienter macht.
Hallo Morpheus, was mir 3cht zu Kurz kommt ... Earum sollte man überhaupt eine LLM lokal haben. Leider hast Du nur in feinem Kurzen Nebensatz gesagt, das ein Traininf zu teuer ist. Sorry das ist mir echt zu wenig.Technisch mag es interessant sein, aber Für den Verkauf von Software finde ich leider keine Pros! Will sagen, bitte ... Was iat das Ziel wie kommen wir dorthin ... was macht Sinn zu lernen und was nicht?? Danke für Dein Engagement Leonardo
Ich liebe Mac's dafür, ich kann mit 32 gb ram wenns drauf ankommt die 70B version von llama wenn auch nicht flüssig laufen lassen. 13B Version läuft mit hoher geschwindigkeit
Um fair zu sein du hast wahrscheinlich keine 3000 euro teure A irgendwas gpu von Nvidia in deinem System ,weshalb stable code auch länger braucht wie chatgpt . Ich hatte versucht stable code in oobabooga zu nutzen rein als transformer lief nicht so gut .
Ich würde mir echt wünschen, einen guten, lokalen Code-Generator zu haben. Momentan ist alles noch sehr in den Kinderschuhen, auch GPT-4 (Code Interpreter). Dennoch bin ich erstaunt, wie blöd meine Anfragen an GPT-4 sein können, und wie (trotzdem) lauffähig der Code ist.
Meinen ersten Rechner (Atari ST, gekauft 1987) habe ich 7 Jahre lang programmiert. Zunächst Pascal, dann GfA-Basic. GPT-4 hat mir in wenigen Sekunden einen Algorithmus für die Berechnung einer Mandelbrot-Menge ("Apfelmännchen") und die grafische Darstellung rausgehauen. Ich habe in einer virtuellen Maschine (Windows unter Linux) mit einem GfA-Emulator diesen Basic-Code ans Laufen bekommen. Dieses Freizeit-Experiment ist schon ein paar Monate her. Mein erster Gedanke war :"Scheiße, dieses Monster spricht jede Sprache!"
Nur Geduld, da geht echt die Post ab!
@@brntckt , sicher. Ist super und natürlich erstaunlich.
Mein Ziel wäre mal: “Schreib mir schnell ein OS, das Executeables für DOS, Windows 1 bis 11, macOS (jede Architektur, inkl. historischer Namen und Iterationen), Ubuntu, iOS, WatchOS, Android kompatibel ist, meine Hardware ist: …. 😂🤗
was mich mal interessieren würde bei stable code kann man der Ki auch einfach eine Neue Sprache beibringen und sie dann mit zB MDD kombinieren? das fände ich mal tatsächlich recht spannend ^^ ansonsten äußerst interessantes Video vielen Dank
da hab ich bock drauf. Hab mit Stable diffusion Blut geleckt.
hey... Hab stable Code zum laufen gebracht, sehe aber nicht deinen Promt, also was davor steht nicht 😭
Danke
Wie hilfreich ist Stable Code beim Codereview?
Kann man mit Stable Code Tests für TDD erhalten?
Schade dass ich das LLM nicht auf meiner cpu laufen lassen kann! Ich hätte noch eine Frage: Könnte man ein ganz kleines mit ein paar parametern auf selber trainieren und dann auf einer cpu ohne probleme laufen lassen kann? Wenn Ja gibt es dazu ein Tutorial oder Github link? Super Video!
wuerde mir auch wuenschen einfach auf cpu umzuschalkten, ich habe zeit, aber ich glaub die libs sind nicht darauf ausgelegt. gpus sind da einfach besser. ich ueberlege schon mir irgendwo nen gpu server zu mieten um mal mit stable diff zu spielen...... aber die sind sauteuer
@@Raketenclub Stable Diffusion läuft auf der CPU. Habe ich seit Monaten laufen. Automatic1111, skip-torch-cuda-test. Gerade die xl-sd Modelle brauchen dann aber viel RAM.
@@supportendhmmm, hab ich probiert, endet dann in einer webgui ud in der console hab ich massenhaftig fehler, keine bilder o aehnlich werden erzeugt. aber gut zu wissen das es geht, dann bastel ich nochmal dran rum.
@@Raketenclub Ja, ich hatte eine alte Automatic1111 Version und hab die immer mal per git pull aktualisiert, die Erweiterungen, die ich verwende, in der GUI geupdatet. Funktioniert einwandfrei. Allerdings muss ich schon auf verschiedenes achten, neulich hab ich aus Versehen direkt mit dem xl-refiner Modell Bilder erstellt, die waren lustig. Genauso wenn man Denoising nicht anpasst. Bei Fehlern gebe ich die 1:1 in eine Suchmaschine ein, neuerdings habe ich einen Github Account, drum würde ich jetzt auch bei den Issues schauen (das geht auch ausgeloggt, open und closed) oder posten.
use-cpu all habe ich auch im Startaufruf, keine Ahnung, ob das notwendig ist.
Weiß jemand wie die VSC Extension heißt?
Darf ich fragen, ich habe vor kurzem angefangen Coden zu lernen so klassisch mit HTML, CSS und Javascript, wenn ich jetzt all diese Videos anschaue habe ich das Gefühl, dass ich besser wieder aufhöre und nicht versuche ein Job im Coding zu kriegen, wie seht ihr das?
Als Entwickler machst du für gewöhnlich noch wahnsinnig viel mehr als nur zu programmieren. Dazu kommt: diese Tools sind noch weit davon entfernt menschliche Entwickler selbst im coden zu ersetzen.
Ich hab ein etwas allgemeineres Video auf meinem anderen Kanal erstellt.
Aber betrachte das ganze als Hilfsmittel. Wir entwickeln auch seit Jahren nicht mehr in assembly 😊 Aufgaben bleiben noch mehr als genug 😅
Nicht entmutigen lassen. Am Anfang muss man eh die ganzen Grundlagen lernen und die brauchst du auch dann noch, wenn die KI den Code produziert. Am Ende ist es schon immer wichtiger gewesen die Software die man schreiben will gut zu planen und das kann dir die KI so nicht abnehmen, denn da sind viele verschiedene Personen dran beteiligt.
Softwareentwicklung ist eben nicht stumpf Code zu schreiben, da muss man auch gut kommunizieren und im Team arbeiten können.
Man kann sich eher freuen, dass viel von dem langweiligen Kram irgendwann wegfällt. Persönlich denke ich, dass es nie eine bessere Zeit für Entwickler gab als jetzt.
Also bleib dran.
@@TheMorpheusTutorialsdu bist auch schnell wie nen Blitz 😅
@@No-no-no-no-nope Danke für die Ermutigung.
Allein den Code zu reviewn bzw. zu fehler-korrigieren wird die nächsten Jahre wohl ein gewaltig großes Thema werden, schätze ich, weil wie bei den anderen LLMs auch schon versuchen auch die Code-Generierenden Modelle jetzt möglichst authentisch zu wirken vom output her, was aber natürlich keinesfalls fehlerfreiheit bedeutet. Und unbedachte Fehler können (im worst case) z.B. dann neue ungewollte sicherheitslücken bedeuten. Oder abstürtze durch übermäßgem Ram-Konsum, wenn z.B. ein Code generiert wurde, der versucht, alles gleichzeitig mit multithreading zu machden oder alles zu Cachen was passiert ist. (So nach dem Motto: guter Gedanke aber schlecht realisiert)
Und bis das alles dann auch halbwegs automatisch korregiert oder entdeckt werden kann, werden noch einige Jahre ins Land gehen.
Gute Erklärung 👍🏼
Kannst du bitte mal ein Video machen wie man, das zum Laufen bekommt, mir schmeißt der code nur Errors?
Danke. Kann man das Modell auch runter laden und zb in gpt4all benutzen?
Leider noch nicht, wird aber denke ich bald passieren
Läuft das ganze auch auf AMD-Karten?
Die Cuda Schnittstelle ist Nvidia Only.
Seht ihr darin einen Vorteil mit GPT-4 in ChatGPT auf Englisch zu schreiben? Ich sehe keinen qualitativen Unterschied in den Antworten zwischen Deutsch und Englisch. Der einzige Unterschied ist, dass man als deutscher Mutterspracher im Englischen ja dann doch mal die ein oder andere englische Vokabel noch mal nachschlagen muss, was das Arbeiten auf Deutsch damit dann effizienter macht.
Hallo Morpheus, was mir 3cht zu Kurz kommt ... Earum sollte man überhaupt eine LLM lokal haben. Leider hast Du nur in feinem Kurzen Nebensatz gesagt, das ein Traininf zu teuer ist. Sorry das ist mir echt zu wenig.Technisch mag es interessant sein, aber Für den Verkauf von Software finde ich leider keine Pros! Will sagen, bitte ... Was iat das Ziel wie kommen wir dorthin ... was macht Sinn zu lernen und was nicht?? Danke für Dein Engagement Leonardo
Ich hab am Ende eine Playlist verlinkt. Ich hab in anderen Videos sehr ausführlich darüber gesprochen
Ich warte ja nur drauf, dass wir bald auch in unseren heimischen CPU's cores haben werden, die für AI optimiert sind
🎉
Das Video ist sehr leise im Vergleich zu anderen UA-cam-Videos.
ich komm nich mehr hinterher und bin eh frustriert da ich keine gpu habe ;( grmlmpf
Copy paste doch einfach das stability equivalent in den gpt4 interpreter um zu sehen ob es funktioniert
Ich liebe Mac's dafür, ich kann mit 32 gb ram wenns drauf ankommt die 70B version von llama wenn auch nicht flüssig laufen lassen. 13B Version läuft mit hoher geschwindigkeit
Das ist echt geil
Wenn es das jetzt noch für AMD GPUs gäbe......
Um fair zu sein du hast wahrscheinlich keine 3000 euro teure A irgendwas gpu von Nvidia in deinem System ,weshalb stable code auch länger braucht wie chatgpt . Ich hatte versucht stable code in oobabooga zu nutzen rein als transformer lief nicht so gut .
2400€ schon, aber die H100 ist eher bei 30.000^^
Aber ja, klar, du hast schon Recht. Damit muss es dann aber am Ende konkurrieren
@@TheMorpheusTutorials ok damit hätte ich jetzt nicht gerechnet .
bisschen leise das Video 😉