I Love To Code
I Love To Code
  • 11
  • 25 274
KI-Models ohne High-End PC lokal ausführen
# Lokale LLM's ohne High-End PC
## Beschreibung
Bisher brauchte man sehr starke PC's um Models lokal zu betreiben,
dieses Problem adressieren die von #mozilla entwickelten #llamafiles
Außerdem sind sie der leichteste Weg um sich in die Welt der KI zu begeben.
Warum? Das erfahrt ihr in diesem Video :)
## Links
llamafiles llamafile.ai
das verwendete Model: huggingface.co/Mozilla/Llama-3.2-1B-Instruct-llamafile/tree/main
Huggingface: huggingface.co/
Discord - discord.gg/P2RVy6WzSx
## Keywords
#chatbot #llm #ki #imagetotext #kitools #ai #aitools #künstlicheintelligenz #llamafiles
Переглядів: 219

Відео

ChatGPT & Co: Besser als GPT4ALL!!! Kostenlose Tools werden immer besser - OpenWebUI (deutsch)
Переглядів 6 тис.3 місяці тому
# Können kostenlose OpenSource-Tools noch mit Giganten wie #claude oder #chatgpt mithalten? Dieser Frage gehen wir in diesem Video nach, indem wir uns #openwebui anschauen. Dieses Tool beherrscht: - Arbeit mit lokalten Dokumenten - Websuchen - Zusammenfassung von UA-cam Videos und vieles mehr Damit haben wir ein kostenloses und sehr mächtiges Tool mit #Rag Fähigkeiten Inhalt 0:00 Können kostenl...
KI per Browser-Plugin nutzbar machen - Teil 2. Youtube-Videos zusammenfassen und bewerten lassen
Переглядів 3715 місяців тому
# Allgemeines In diesem Video erweitern wir das Browser-Plugin aus Teil 1 ( ua-cam.com/video/Au5SugLl0Rk/v-deo.html ) dahingehend, dass wir jetzt auch UA-cam-Videos bewerten lassen können. Dabei - lösen wir erst häufige Probleme mit der #browserextension - lesen wir via #javascript das #Transkript des Videos aus - passen das #prompt an - aktualisieren die #browsererweiterung # Inhalt 0:00 Intro...
KI per Browser-Plugin praktisch nutzbar machen - Teil 1. Artikel zusammenfassen und bewerten lassen
Переглядів 6496 місяців тому
# LMMs praktisch nutzen In diesem Video zeige ich dir ein praktisches Browser-Plugin für #chrome das deine Online-Erfahrung bereichern kann. Mit diesem Addon kannst du jede Webseite, die du besuchst, an #lmstudio oder #ollama senden. Das KI-System erstellt daraufhin eine prägnante Zusammenfassung des Seiteninhalts und bewertet diesen. Die erstellte Zusammenfassung und Bewertung werden direkt in...
ChatGPT & Co: Open Interpreter lokal mit LM-Studio - Einstieg erklärt (deutsch)
Переглядів 1,5 тис.6 місяців тому
# Interaktiv mit einem LM auf deinem PC zuhause arbeiten Inhalt 0:00 Intro 0:10 Einschränkung lokaler LLMs 1:24 Lösung von #chatgpt 2:02 Open Interpreter kurz erklärt 3:02 Anaconda installieren 4:02 Open Interpreter installieren 5:00 LM Studio 5:20 Einführung und Tests 7:53 Umgang mit Problemen 9:20 Abspann In diesem Video zeige ich dir Schritt für Schritt, wie du #openinterpreter auf deinem lo...
Bild KI mit API - Erste Schritte mit ComfyUI und Beispiel wie man die API mit curl und PHP anspricht
Переглядів 7746 місяців тому
# ComfyUI Tutorial: Bildgenerierung mit Stable Diffusion unter Windows In diesem Video zeige ich dir, wie du ComfyUI unter Windows installierst und mit Stable Diffusion erste Bilder generierst. Du erfährst - Wie du ComfyUI installierst und konfigurierst - Welche Fallstricke es bei der Installation gibt - Wie du rudimentär ein Bild mit ComfyUI erzeugst - Wie du die ComfyUI API via Curl nutzt - W...
Endlich! Ollama für Windows ist da. Hier findest du eine ausführliche Schritt für Schritt Anleitung
Переглядів 3,2 тис.7 місяців тому
#Ollama für Windows ist endlich da! In diesem umfassenden Video erkläre ich euch Ollama Schritt für Schritt - von der Installation bis hin zu fortgeschrittenen Funktionen. Lerne, wie du verschiedene Modelle installierst und anpasst, um Ollama perfekt auf deine Bedürfnisse zuzuschneiden. Wir schauen uns normale Chatmodels wie #llama2 aber auch multimodale Models wie #llava an. Dabei untersuchen ...
Bilder per KI erstellen und bearbeiten - lokal auf deinem PC #fooocus (deutsch) - AI Bild Generator
Переглядів 4,8 тис.7 місяців тому
Fooocus: KI-Bildgenerierung leicht gemacht! Wenn du nach einer kostenlosen Alternative für #midjourney oder #leonardoai bist, dann kannst du hier fündig werden. In diesem Video zeige ich dir Schritt für Schritt, wie du mit Fooocus kostenlos und offline beeindruckende Bilder mithilfe von KI erstellen kannst. Keine Vorkenntnisse erforderlich! Das erwartet dich: Einfache Installation von Fooocus E...
KI Chatbot auf deinem PC - LM Studio Einführung (deutsch)
Переглядів 1,3 тис.7 місяців тому
#lmstudio #ki #llm #chatbot LM Studio Tutorial für Anfänger In diesem Video zeige ich dir Schritt für Schritt, wie du LM Studio installierst und einrichtest, um mit deinen eigenen KI-Sprachmodellen zu arbeiten. Du lernst: Wie du LM Studio herunterlädst und installierst Wie du verschiedene Sprachmodelle herunterlädst und installierst Wie du den Systemprompt anpasst, um verschiedene Arten von Tex...
ChatGPT & Co: GPT4All - Dein lokaler Chat-Client! Installation und erste Schritte (deutsch)
Переглядів 7 тис.8 місяців тому
#chatgpt #gpt4all #llm #ki In diesem Video zeige ich dir Schritt für Schritt, wie du GPT4all installierst und anwendest. GPT4all ist ein kostenloses KI-Sprachmodell, das auf deinem eigenen Laptop läuft. Du brauchst keine teure Hardware oder High-End-GPU, um die Power von GPT4all zu nutzen. Mit GPT4all kannst du: - Texte generieren - Sprachen übersetzen - Kreative Inhalte schreiben - Fragen bean...

КОМЕНТАРІ

  • @RainerZufall-s4w
    @RainerZufall-s4w 12 днів тому

    Vielen Dank für das Video. Ich wollte Ollama einmal ausprobieren und habe mich an deine Anleitung gehalten. Nette Spielerei, aber entweder mache ich etwas grundlegend falsch, oder die Daten sind inkonsistent und das halte ich für ziemlich gefährlich. Llama 2 gibt mir Köln nicht unter den 5 größten Deutschen Städten aus (der Hinweis auf Destatis kommt bei mir auch nicht). Wenn ich explizit nach der Einwohnerzahl von Köln frage, kommt 409.000 als Antwort. Llama 3 gibt Köln korrekt mit 1.08 Mio an, dafür soll Berlin 6.78 Mio Einwohner haben. Als Quelle wird der Deutsche Stadtgemeindetag e.v. angegeben. Lassen wir an der Stelle einmal das völlig unbrauchbare Deutsch der Llama aussen vor.

    • @i-love-2-code
      @i-love-2-code 12 днів тому

      Nein, du machst nichts falsch. Man darf sich tatsächlich nicht auf die Antworten verlassen - vor allem weil sie zum Teil auch veraltet sind. Bessere Ergebnisse erhält man, wenn man zusätzlich eine Websuche oder Vector-Store verwendet. Ein nettes Tool das sowas anbietet ist OpenWebUI : ua-cam.com/video/Rrmm7KNIqbc/v-deo.html Auch llama 3.2 3B ist schon ziemlich gut und wesentlich besser was die deutsche Ausgabe angeht

  • @svennose2175
    @svennose2175 29 днів тому

    Werden die Daten lokal auf dem PC verarbeitet oder ist eine Internet Verbindung notwendig?

    • @i-love-2-code
      @i-love-2-code 29 днів тому

      Zum herunterladen des models benötigt man einmalig Internet. Danach passiert alles lokal auf deinem PC

    • @crashandwar
      @crashandwar 18 днів тому

      Auf dem Pc

  • @jsebastianmunch
    @jsebastianmunch Місяць тому

    Gut erklärt, danke!

  • @semaforrob
    @semaforrob 2 місяці тому

    Gibt es eine Möglichkeit, docker, ollama und die heruntergeladenen Modelle nicht auf c: zu installieren/speichern, sodern auf eine andere Festplatte? Habe Platzprobleme auf c:.

    • @i-love-2-code
      @i-love-2-code 2 місяці тому

      Du kannst zB. unter Docker Deskopt einstellen, wohin die Images gespeichert werden. Unter Einstellungen (Zahnrad oben rechts), dann Resources -> Advanced irgendwo steht da Disk Image location. Bei ollama kann man den Speicherort wohl auch über die Env-Variablen steuern: das geht zB. unter Windows via: setx OLLAMA_MODELS "D:\ollama_model" Quelle: github.com/ollama/ollama/issues/680 VG

  • @sirgoekmen
    @sirgoekmen 2 місяці тому

    Finde die Einstellung zum Zugriff auf das Web nicht. Kannst du noch ergänzen woran das liegen könnte? Danke dir Ergänzend: Mac User

    • @i-love-2-code
      @i-love-2-code 2 місяці тому

      schwer zu sagen, kannst du mir sagen welche version von webui du verwendest?

  • @WahreZocker
    @WahreZocker 3 місяці тому

    Hi, sehr cooles Video, vielen Dank. Weißt du zufällig, ob das Eingegebene bei dieser open Source Version sicher ist oder wird das weiter verarbeitet? Ich frage aufgrund von hohen Sicherheitsanforderungen bei uns :) Kann man alle Modells aus Huggingface nutzen? LG

    • @i-love-2-code
      @i-love-2-code 3 місяці тому

      Vielen Dank! Wissen tue ich es nicht, da ich bisher noch nicht wirklich in den Code eingetaucht bin. Das Tool läuft aber auch offline, was schon mal ein sehr gutes Zeichen ist. Außerdem arbeiten (Stand jetzt) über 180 Entwickler an dem Code und er hat über 30k Sterne auf Github. Sollte da etwas nicht mit rechten Dingen zugehen und das Tools dazu bewegen "nach Hause" zu telefonieren, dann würde das recht schnell auffallen. Notfalls einfach die Browser-Konsole im Auge behalten :)

    • @WahreZocker
      @WahreZocker 3 місяці тому

      @@i-love-2-code Hi, danke für die schnelle Antwort :). Ich dachte es mir schon fast, aber ich wollte mal den Experten nochmal dazu fragen. Kannst du mir noch verraten, ob alle Huggingface Modells darauf funktionieren? LG!

  • @Andzej-PL_DE
    @Andzej-PL_DE 3 місяці тому

    Hallo, ich finde deine Tutorials sehr hilfreich und informativ. Könntest du vielleicht ein Tutorial zur AutoTrain-Funktionalität von HuggingFace machen? Es wäre toll, wenn du auch zeigen könntest, wie man in der kostenlosen Variante eigene Daten verwendet, um Modelle nachzutrainieren. Vielen Dank für deine großartige Arbeit.

    • @i-love-2-code
      @i-love-2-code 3 місяці тому

      Vielen Dank! Werde ich sehr gerne machen, wird aber noch etwas dauern. Ich habe eine kleine Liste von bereits begonnenen Videos und die muss ich erstmal abarbeiten - sonst laufe ich Gefahr dass die Sachen einfach zu lange nicht fertig werden. Ich gebe mir aber mühe so schnell wie möglich zu diesem Punkt zu kommen

    • @Andzej-PL_DE
      @Andzej-PL_DE 3 місяці тому

      @@i-love-2-code Danke schön 🙂 Ich freue mich schon auf deine Videos. Auf huggingface habe ich auch schon datasets hochgeladen, kannst sehr gerne benutzen ... einfach nach "Andzej-75" oder "RisingWorld" suchen.

  • @RichardCampbellxxx
    @RichardCampbellxxx 3 місяці тому

    Herzlichen Dank für deine Arbeit!👍 Ich habe deine Anleitung genau befolgt und alles funktioniert mit LLaMA 3 8b wunderbar. Es wäre allerdings sehr interessant, wenn du in deinem nächsten Video zeigen könntest, wie man dies ebenso einfach mit Feinabstimmung erreichen kann. Denn im Moment gestaltet sich das Training bzw. Fine-Tuning von LLaMA 3 für mich als sehr komplizierter Vorgang.✌

    • @i-love-2-code
      @i-love-2-code 3 місяці тому

      Die Frage nach dem Thema kam tatsächlich schon öfters. Die kommenden 3 Videos sind leider schon begonnen und ich muss die auch erstmal fertig bekommen, sonst verzettele ich mich mit zu vielen offenen Baustellen. Aber danach widme ich ein ausführliches Video dem Thema Finetuning. Aber als kleiner Spoiler: Meiner Meinung nach erreicht man via RAG viel mehr und viel schneller Ergebnisse, als über Finetuning von einem Model.

    • @RichardCampbellxxx
      @RichardCampbellxxx 3 місяці тому

      @@i-love-2-code ja KP, alles mit der ruhe. Das wird eine harter arbeit. Tatsächlich habe ich RAG noch nicht verwendet. Ich habe lediglich PDF-Dokumente in den Arbeitsbereich von Open WebUI hochgeladen und damit einen Chatbot erstellt, der meine Fragen basierend auf den gelesenen und verstandenen Dokumenten beantworten soll. Leider liefert der Chatbot bei fast allen Fragen falsche oder unzusammenhängende Antworten. Ich habe bereits verschiedene Modelle ausprobiert, aber das Ergebnis ist meistens unbefriedigend. Die PDF-Dateien sind dabei höchstens 6 MB groß und nicht sehr komplex. Ist die RAG-Methode nicht dasselbe wie das Hochladen von Dokumenten in den Arbeitsbereich? Falls RAG deiner Einschätzung nach besser geeignet ist, könntest du dazu ein Tutorial erstellen? Vielen Dank für die Informationen zu RAG und deine Mühe, du hast einen tollen Kanal!

    • @RichardCampbellxxx
      @RichardCampbellxxx 3 місяці тому

      @@i-love-2-code ja KP, alles mit der ruhe. Das wird eine harter arbeit. Tatsächlich habe ich RAG noch nicht verwendet. Ich habe lediglich PDF-Dokumente in den Arbeitsbereich von Open WebUI hochgeladen und damit einen Chatbot erstellt, der meine Fragen basierend auf den gelesenen und verstandenen Dokumenten beantworten soll. Leider liefert der Chatbot bei fast allen Fragen falsche oder unzusammenhängende Antworten. Ich habe bereits verschiedene Modelle ausprobiert, aber das Ergebnis ist meistens unbefriedigend. Die PDF-Dateien sind dabei höchstens 6 MB groß und nicht sehr komplex. Ist die RAG-Methode nicht dasselbe wie das Hochladen von Dokumenten in den Arbeitsbereich? Vielen Dank für die Informationen zu RAG und deine Mühe, du hast einen tollen Kanal!

  • @horstbuttkau2385
    @horstbuttkau2385 3 місяці тому

    Mistral instruct lügt 😂 Frag mal ob es Zugriff auf das Internet hat. Es sagt "Ja,...." Dann frag mal: Suche bei Google die neuesten Nachrichten. Dann bekommst du Nachrichten aus 2023. Dann frag mal welcher Tag ist heute. Antwort:....2023. 😂 Andere, wie gemma2 z.b. sagen klar, dass sie keinen Internet Zugriff haben.

  • @Cor-tex
    @Cor-tex 3 місяці тому

    Super Video! willst du vielleicht auch näher auf die "Tools" und "Functions" eingehen?

    • @i-love-2-code
      @i-love-2-code 3 місяці тому

      Vielen Dank! Tatsächlich ist ein zweites Video zu genau diesen Themen geplant. Ich rechne mit 2-3 Wochen bis ich es fertig habe

  • @bushcrafthessen21
    @bushcrafthessen21 3 місяці тому

    Danke für das Video, Abo hast du 👍 Bin gespannt wie es weitergeht 🙂

  • @3KLANGMUSIC
    @3KLANGMUSIC 3 місяці тому

    Weisst du überhaupt wie diese LLMs funktionieren? Bei 3:05 ist doch logisch, dass die Antwort so nicht besser werden kann, das lässt die Architektur gar nicht zu. Wäre die Antwort besser, dann nur weil der Seed rein zufällig besser gewählt wurde.

    • @i-love-2-code
      @i-love-2-code 3 місяці тому

      Du hast da wirklich einen Punkt :) Etwas unglücklich im Ton, aber ich bin ja auch nicht aus Zucker. Das Problem das du ansprichst ist wirklich spannend und ich würde dir gern anbieten, dass wir es in einem gemeinsamen Video genauer erklären - fände ich super! Falls du Lust hast, sag bescheid

  • @FrankFacius
    @FrankFacius 3 місяці тому

    Hast du schon erfahrungen mit Perplexica?

    • @i-love-2-code
      @i-love-2-code 3 місяці тому

      Ja und damit hast du auch schon den Inhalt eines der nächsten Videos verraten :) Aber ich möchte an dieser Stelle ungern spoilern

  • @FrankFacius
    @FrankFacius 3 місяці тому

    Sehr schönes Video. Ich hab dich abonniert ...Du machst das gut.

  • @Heisenberg2097
    @Heisenberg2097 3 місяці тому

    Und wann hattest du die Zeit ausgiebige Tests zu machen um deine Behauptung zu belegen? Wo steht dein Cluster der dazu in der Lage ist? Ihr KI-Junkies seid immer wieder drollig. w

    • @i-love-2-code
      @i-love-2-code 3 місяці тому

      Welche Behauptungen sollten deiner Meinung nach belegt werden?

  • @Arsat74
    @Arsat74 3 місяці тому

    Vielen Dank für das interessante Video! Werde ich auf jeden Fall ausprobieren.

    • @i-love-2-code
      @i-love-2-code 3 місяці тому

      Sehr gerne! Das Tool ist definitiv eine gute Wahl und wird in den kommenden Monaten noch um einige starke Features erweitert. Der Aufwand bzgl. Installation lohnt sich definitiv. Viel Erfolg und danke für das Feedback

  • @Guckst_Du_hier
    @Guckst_Du_hier 3 місяці тому

    Danke für die ausführliche Erklärung. Es macht aber Angst, wenn ein fremd gesteuerter Automatismus Schreibrechte auf unserer System und Daten hat.

    • @i-love-2-code
      @i-love-2-code 3 місяці тому

      Ja, man sollte da definitiv wissen was man tut und die "auto" Funktion nur mit Bedacht verwenden.

    • @Guckst_Du_hier
      @Guckst_Du_hier 3 місяці тому

      @@i-love-2-code Gibt es die Möglichkeit die Recht o.ä. zu beschränken. Nicht das die Ki "versehentlich" die Festplatte löscht oder Dateien umbenennt etc ;)

    • @i-love-2-code
      @i-love-2-code 3 місяці тому

      Es gibt einen experimentellen Safe-Mode: github.com/OpenInterpreter/open-interpreter/blob/main/docs/SAFE_MODE.md und per Default wird ja vor jeder Ausführung von Code nachgefragt. Unter Linux kann man noch mit Benutzerrechten arbeiten und dann könnte man Code-Interpreter noch in einer Docker-Umgebung betreiben, um Risiken zu minimieren. Ich hoffe das hilft ein wenig :)

    • @Guckst_Du_hier
      @Guckst_Du_hier 3 місяці тому

      @@i-love-2-code Vielen Danke. Es ist aufjedenfall ein niemals endendes Thema.

  • @Flischig
    @Flischig 3 місяці тому

    Mega!

  • @skycastlechronicles
    @skycastlechronicles 3 місяці тому

    "Unikorn" :D - na, das ist mal frei übersetzt! Jetzt hab ich Angst vor den Dingern.. !!

  • @skycastlechronicles
    @skycastlechronicles 3 місяці тому

    Thx! Working with Langchain and had trouble with using llama2 model, didnt know how to "pull" it after installing! Thats happening right now as I used the command ollama run llama2 in the command prompt (cmd). Would have never thought of that!

    • @i-love-2-code
      @i-love-2-code 3 місяці тому

      I'm glad I could help :) If you don't want to start ollama separately or run it with "ollama serve", you can also use "ollama pull modelname"

  • @Paul_Poanie
    @Paul_Poanie 3 місяці тому

    Du nix Deutsch???? ""Erstelle die Liste als Tabelle dar"

    • @i-love-2-code
      @i-love-2-code 3 місяці тому

      Freut mich, dass es Ihnen offensichtlich sehr gut geht... Viel Spaß weiterhin

  • @MoinVibes
    @MoinVibes 4 місяці тому

    bin neu in dem bereich und finde dazu keine information. derzeit ist die version 0.2.25 von LM Studio für Windows aktuell und ich möchte die Oberfläche auf die deuche Sprache umstellen. Geht das überhaupt und wenn ja wie und wo? Ansonsten - gibt es empfehlenswerte Module, die man sich definitiv mal angucken sollte, vor allem als Anfänger? Danke für Antworten! 🙂

    • @i-love-2-code
      @i-love-2-code 4 місяці тому

      Ich habe bisher noch keinen Weg gefunden, die UI auf deutsch umzustellen. Im nächsten Video zeige ich aber eine UI bei der das und noch vieles mehr geht. Hoffe bis Mitte nächster Woche kann ich es hochladen. Ansonsten würde ich aktuell CohereForAI/aya-23-35B empfehlen. Ist ein sehr starkes Modell - vor allem wenn die deutsche Ausgaben wichtig sind. VG

    • @MoinVibes
      @MoinVibes 3 місяці тому

      @@i-love-2-code vielen dank für die tipps & hinweise. bin dann sehr gespannt auf das nächste video und werde auch mal das empfohlene modell ausprobieren. VG

  • @AtiKani
    @AtiKani 4 місяці тому

    Muss ich mal ausprobieren

  • @dkongplay4861
    @dkongplay4861 4 місяці тому

    3:55 Dafür muss erstmal die GPU erkannt werden weil *We are unable to detect any compatible GPUs on your machine, so GPU acceleration is disabled.* Außerdem produziert die LLM (mythomax-l2-13b.Q4_0.gguf) die Ich Verwende Zusammenhanglosen Dreck.

    • @i-love-2-code
      @i-love-2-code 4 місяці тому

      Was für eine Grafikkarte verwendest du denn?

    • @dkongplay4861
      @dkongplay4861 4 місяці тому

      @@i-love-2-code AMD Radeon RX 6800 XT

  • @BiesenbachKlein
    @BiesenbachKlein 4 місяці тому

    Vielen Dank.👍

  • @Friedel-p8c
    @Friedel-p8c 4 місяці тому

    Wie startet man das Programm nach der Installation ? - Ist unter C: Programme nicht aufgeführt - Ich nutze Win11 Pro - nach run.bat Ausführung kommt am Ende "beliebige Taste drücken" - und dann ?

  • @blankenaulive4647
    @blankenaulive4647 4 місяці тому

    Hi und vielen Dank für dein Video. ich persönlich bin begeistert was man heute alles machen kann. Besonders deine praktische Anwendung mit den Bildern, diese zu indexieren, den Inhalt in einer Datenbank ablegen und aufgrund von Stichpunkte wieder finden. Wäre für Urlaubsbilder genial.

    • @i-love-2-code
      @i-love-2-code 4 місяці тому

      Danke für dein Feedback. Ich arbeite gerade an einem Tool, dem man Bilder von Personen (sich selbst und Familienmitgliedern) geben kann und das dann basierend auf diesen und weiteren Metadaten entsprechende durchsuchbare Alben erstellt. Stelle das dann in einem zukünftigen Video vor und veröffentliche es auf Github. Habe jedoch aktuell leider viel um die Ohren, darum dauert es länger als ursprünglich geplant :/

  • @tformetx7943
    @tformetx7943 5 місяців тому

    Hello danke sehr für die Einführung :) sehr klar und einfach zu verstehen. super cool. eine Frage bitte: wie kann man dann ein Model löschen wenn man es installiert hat ? danke sehr !

    • @i-love-2-code
      @i-love-2-code 5 місяців тому

      Vielen Dank für dein positives Feedback :) Normalerweise kann man das über das rm-Kommando machen: zB. "ollama rm llama2". Wenn du wissen möchtest welche Models aktuell installiert sind: "ollama list" Es kann (zumindest unter Windows) vorkommen, dass dann beim Versuch zu löschen ein Fehler zurückgegeben wird. Der besagt in etwa, dass das Model gerade verwendet wird und nicht gelöscht werden kann. In dem Fall lohnt der Versuch ein anderes Model zu starten und direkt wieder zu beenden. Danach direkt nochmal den rm-Befehl ausführen. Ich hoffe das hilft

  • @luckymomo8217
    @luckymomo8217 5 місяців тому

    Hi ... danke für deine Anleitung ... habe diese bis Minute 1.30 so durchgeführt ... keine hat sich bei mir kein Modell geöffnet indem ich die prompts eingeben bzw die Bilder generieren kann 😢 ... wo liegt der Fehler bzw wie kann ich das lösen ... VG von einer nichtFachFrau 🙃

    • @luckymomo8217
      @luckymomo8217 5 місяців тому

      Ahhh ...mein nvidia diver ist zu alt 🤪

    • @luckymomo8217
      @luckymomo8217 5 місяців тому

      Driver aktualisiert...läuft 🤩👍

    • @i-love-2-code
      @i-love-2-code 5 місяців тому

      Tut mir leid, konnte nicht schneller antworten. Freut mich aber sehr, dass es jetzt funktioniert! Und vielen Dank für das Teilen der Lösung :)

    • @crashandwar
      @crashandwar 18 днів тому

      Läuft auf jeden PC?

  • @youjean83
    @youjean83 5 місяців тому

    Quasi LM Studio für Anfänger.

    • @i-love-2-code
      @i-love-2-code 5 місяців тому

      Kann man so beschreiben. Finde es auch gut, dass jede Zielgruppe ein Tool für sich im Netz finden kann.

  • @chester8459
    @chester8459 5 місяців тому

    Ist das besser als stable diffusion?

    • @i-love-2-code
      @i-love-2-code 5 місяців тому

      Ich habe die Sachen von stability tatsächlich noch nicht ausprobiert, kann es darum schlecht miteinander vergleichen

    • @hellraisap
      @hellraisap 4 місяці тому

      Achso, deine Frage ... Nein, ich finde ComfyUI (SD) wegen der Möglichkeit der Veränderung des Systems, sprich Erweiterungen, um einiges besser. Wer aber einfach nur Bilder erstellen will, fährt mit Fooocus genauso gut.

  • @speedyspeedy9712
    @speedyspeedy9712 5 місяців тому

    Sehr gute Video! Allerdings wird bei mir bei der Chrom-Erweiterung angezeigt, dass der Service Worker inaktiv ist. Er zeigt mir auch einen Fehler an. Dieser ist wohl im: content_script.js:111 (Anonyme Funktion). Das ist die Zeile mit: systemPrompt = systemPrompt.trim(); Allerdings kann ich das Plugin trotzdem ausführen.

    • @i-love-2-code
      @i-love-2-code 5 місяців тому

      Vielen Dank für die Rückmeldung! Ich schaue mir das heute Abend mal an und werde den Fehler korrigieren.

  • @eliasw.1155
    @eliasw.1155 5 місяців тому

    Sehr gut erklärt und mega nützlich

  • @HubertPohnke
    @HubertPohnke 5 місяців тому

    Das Video finde ich ausgezeichnet und bedanke mich. Hatte GPT4ALL installiert mit 'SBERT' (für Embedding) und 'EM German Mistral' (als LLM) . Diese erste Installation lief problemlos. Es kam (vielleicht auch wegen eines Bedienungsfehlers) zum Stillstand. Ich wollte dann das ganze System deinstallieren und noch mal neu aufsetzen. Nach Neuinstallation konnte ich keine Models erneut downloaden und somit GPT4ALL nicht mehr nutzen auf meinem MacBookPro M3. Schade, denn es sah anfänglich sehr gut aus.

    • @i-love-2-code
      @i-love-2-code 5 місяців тому

      Tut mir leid, dass es Probleme mit dem Tool gibt. Ist schwierig aus der Ferne da eine Diagnose zu stellen, vor allem weil ich selbst keinen Mac verwende. Als ersten Schritt würde ich vorschlagen, den Download-Ordner testweise zu ändern. Sollte alles nicht helfen, gern mal unter der Woche im Discord vorbeischauen. Da könnte ich es mir mal direkt anschauen :) VG

  • @m42ears
    @m42ears 5 місяців тому

    Erstmal danke fuer das Tutorial. Sehr gut gemacht soweit. Die Fehlermeldungen beim entpacken kommen wahrscheinlich durch zu lange Pfadnamen zustande. Kuerze den Dateinamen des Archivs vor dem Entpacken oder entpacke das Archiv mit WinRar direkt, ohne den Dateinamen zu benutzen. So habe ich es gemacht und keine Fehlermeldung bekommen. Ps.: Es gibt auch irgendwo eine Einstellung in WIndows was den Umgang mit langen Dateinamen angeht. Einfach mal googeln.

  • @Engel_Night
    @Engel_Night 5 місяців тому

    Hallo zusammen, ich wollte meine Erfahrungen und Herausforderungen beim Versuch, die Software "Fooocus" zu nutzen, mit euch teilen. Mein System verwendet eine AMD Radeon RX 6600 Grafikkarte, die für ihre leistungsstarke 1080p-Gaming-Performance bekannt ist, und einen AMD Ryzen 9 6900HX Prozessor. Trotz dieser leistungsstarken Spezifikationen stieß ich auf Schwierigkeiten, da die Software offenbar speziell NVIDIA-Hardware erfordert. Ich habe bereits eine Anfrage beim Hersteller eingereicht, um herauszufinden, ob Anpassungen für AMD-Hardware möglich sind oder eine kompatible Version der Software bereits existiert. Dies ist die Systemkonfiguration, die ich verwende: Prozessor: AMD Ryzen 9 6900HX, 8 Kerne, 16 Threads, 4,737 GHz Grafikkarte: AMD Radeon RX 6600 (8 GB GDDR6, Game Clock bis zu 2044 MHz, Boost-Frequenz bis zu 2491 MHz, 224 GB/s Speicherbandbreite) Hat jemand ähnliche Erfahrungen gemacht oder Tipps, wie man solche Kompatibilitätsprobleme am besten angeht? Ich freue mich auf eure Rückmeldungen und hoffe, dass eine Lösung gefunden werden kann, die es allen ermöglicht, diese großartige Software zu nutzen, unabhängig von der Hardware. Viele Grüße, Thomas

  • @lakewalker6990
    @lakewalker6990 5 місяців тому

    Geht das nur mit Nvidia Treibern?

    • @i-love-2-code
      @i-love-2-code 5 місяців тому

      Du kannst es auch über CPU nutzen. Bzgl. AMD sagt die Doku: "AMD is not intensively tested, however. The AMD support is in beta." Ich habe leider keine AMD Karte, kann es daher nicht selbst testen

  • @aketo8082
    @aketo8082 5 місяців тому

    Vielen Dank. Sehr spannend. Wie sieht es den mit eigenen Erweiterungen der LLM aus? Also "dazulernen". Geht das? Per eigene Dateien zumindest nicht, habe nichts dazu gefunden. Und für "Abfragen" weiß ich nicht so recht. Aber das Problem habe ich auch bei den nicht-offline-Modellen. ;-) Ich teste alle Modelle mit einer kleinen Kurzgeschichte, um zu sehen, wie "Intelligent" und trainiert diese Modelle sind, leider "verstehen" sie noch nicht ganz die Zusammenhänge. Klar LLM ist eher eine Text-Datenbank. Deswegen suche ich noch das "I"....;-) Witzig wäre diese Kombi mit dem Pseudo-KI-Modell vom C64, der per Dialog sein "Wissen" erweitert hat. Falls sowas überhaupt geht. Macht Spaß das zu verfolgen. Spannend wäre, wie man mit Python ein LLM erstellen könnte. Suche Infos und Literatur dazu. Vielen Dank. Auch für Deinen Kanal, ist klasse!

    • @thomasunknown3502
      @thomasunknown3502 5 місяців тому

      ua-cam.com/users/results?search_query=build+your+own+llm+from+scratch

  • @aketo8082
    @aketo8082 5 місяців тому

    Vielen Dank. Sehr interessant. Mich interessiert, wie kann man ein eigenes LLM erstellen und erweitern, mit eigenen Daten? Wie werden die Daten eingebunden, trainiert und erweitert. Auch würde mich interessieren, wie man LM Studio oder GPT4ALL zur Abfrage, im Dialog, mit Lernskripten nutzen kann. Vielen Dank für infos und Hinweise.

    • @i-love-2-code
      @i-love-2-code 5 місяців тому

      Vielen Dank für dein Feedback. Ein eigenes LLM trainieren wird wohl kaum jemand von uns machen, das ist schlicht zu teuer. Wie man eigene Dokumente in GPT4ALL verwendet, habe ich hier erklärt: ua-cam.com/video/Koc_cB9Ana8/v-deo.html vielleicht hilft das etwas weiter. Lokale Models als Lernhilfe finde ich generell sehr spannend und werde dem nach Teil 2 zum Browser Plugin direkt ein Video widmen. Falls ich hier konkrete auf konkrete Fragen eingehen soll, schreib sie mir gern. Ansonsten: Sollte das GPT4ALL Video nicht helfen, melde dich einfach - bei konkreten Anliegen kann ich sicherlich behilflich sein

    • @aketo8082
      @aketo8082 5 місяців тому

      @@i-love-2-code Danke. Ob das teuer ist oder nicht, wäre trotzdem interessant zu wissen, wie man das per Python oder C++ machen könnte. Leider ist das "Gedächtnis" noch viel zu kurz, auch bei GPT4All gibt es sehr schnell Halluzinationen. So ganz würde ich mich auf die Antworten nicht verlassen. ;-) Mir geht es sehr spezielle darum, eine eigene "KI" zu erstellen, die ich entsprechend mit Dateien (PDF, TXT, Docx) trainieren möchte. Auch das Training interessiert mich, da verschiedene Zusammenhänge die sogenannte "KI" noch nicht "versteht". Klar, ist vorallem auch von der Hardware abhängig, auch was die Geschwindigkeit betrifft. Darum geht es mir erstmal nicht, ein XMG Neo 17 mit RTX4090 dürfte für meine Texts reichen. GPT4ALL mit GPU ist schon ein himmelweiter Unterschied. 🙂 Bin gespannt, wann man den ersten richtigen Dialog anhand seiner Lernskripte hat. Gerne auch Literaturtipps mitteilen. Belese mich bereits in ML, DL, RL, KNN usw..... BTW: Klasse Kanal! Schönes Wochenende.

    • @i-love-2-code
      @i-love-2-code 5 місяців тому

      Bin nicht sicher ob das reicht :) Du hast an sich 2 Möglichkeiten deinem LLM "Wissen zu vermitteln" Entweder via externen Datastore (VectorDB usw) was sich dann Richtung RAG bewegt oder (und ich denke das was du meinst) du musst (d)ein LLM Finetunen (schau mal nach: Fine tuning LLMs for Memorization). Beides spannende und vor allem umfangreiche Themen. Sollte dich Letzteres interessieren, kann ich dir folgende Playlist empfehlen: ua-cam.com/play/PLWG1mVtuzdxfXkxCbPHh9reKV-fWqraEX.html Bin mir ziemlich sicher, dass das die Informationen sind, nach denen du suchst. Dir auch ein schönes WE ;)

    • @aketo8082
      @aketo8082 5 місяців тому

      @@i-love-2-code Klasse, Danke. Ich schaue es mir an.

  • @BoomTribe
    @BoomTribe 6 місяців тому

    Danke

  • @frankschuler9738
    @frankschuler9738 6 місяців тому

    Vielen Dank für dieses Tutorial. Ich freue mich jetzt schon auf den 2. Teil 🙂

    • @i-love-2-code
      @i-love-2-code 6 місяців тому

      Ich gebe mein Bestes, damit der nicht wieder so lange auf sich warten lässt :)

    • @frankschuler9738
      @frankschuler9738 6 місяців тому

      ​@@i-love-2-code Ich bin von Hause aus Hardwareentwickler, aber jetzt Rentner. Deine Videos ermöglichen es mir auf dem neusten Stand der Technik zu bleiben. Die technologische Entwicklung wird immer rasanter, um ihr zu folgen. Entweder man spezialisiert sich oder verliert den Anschluß. Sicherlich habe ich eine Menge Fragen zu dem Umgang und der Hardware mit der KI sowie derer praktischen Einbindung, aber ein Schritt nach dem anderen. Sicher können wir auch mal einen anderen Kanal der Kommunikation finden und ein interessantes Gespräch über weitaus mehr zu führen. LG Frank

  • @GeorgAubele
    @GeorgAubele 6 місяців тому

    Gut erklärt! Danke! Könntest du mal noch ein Video zu RAG machen?

    • @i-love-2-code
      @i-love-2-code 6 місяців тому

      Vielen Dank :) RAG wird definitiv bald kommen. Ich versuche, das Thema nach und nach aufzubauen, so dass ich bei komplexeren Sachverhalten auf entsprechende Grundlagenvideos verweisen kann. Aber das meiste ist erledigt und wir nähern uns den wirklich spannenden Dingen

  • @fortunato1957
    @fortunato1957 6 місяців тому

    Das war ja mal richtig interessant! Wenn ich das auf meinem Linux so ans Laufen bringe, bin ich echt happy. Ich bin auf weitere Videos gespannt. Mein Abo hat sich jetzt schon gelohnt. Schade, dass du so wenig Abonnenten hast. Ich werde dich weiterempfehlen.

    • @i-love-2-code
      @i-love-2-code 6 місяців тому

      Vielen Dank für das tolle Feedback! Das mit den Abonnements ist schon ok - der Kanal ist ja noch nicht so alt bzw. ich erstelle erst seit ein paar Wochen Videos. Ich möchte auch nicht in die Falle tappen, Abonnenten "hinterherzujagen", sonst bestimmt irgendwann die Nachfrage die Inhalte und nicht mehr meine persönlichen Interessen. Dann würde es schnell keinen Spaß mehr machen und ich würde wahrscheinlich die Lust verlieren :) Sollte es Probleme bei der Umsetzung unter Linux geben, gerne melden (Kommentar oder Email) ich unterstütze gern

  • @fortunato1957
    @fortunato1957 6 місяців тому

    Dein Video fand ich sehr interessant, von LM Studio hab ich bisher noch gar nichts gehört. Äußerst hilfreich fand ich den Hinweis zur Hardware-Anforderung. Da ich einen Ryzen 9 mit 12 Kernen, 32 GB RAM und eine RTX 3060 mit 12 GB habe, sollte das bei mir recht geschmeidig laufen. Die Oberfläche fand ich sehr cool! Ich habe eine schon ältere, daher nicht so große externe SSD eigens für KI-Sachen. Da habe ich schon Modelle für GPT4All drauf. Ich denke, dass ich diese Modelle auch mit LM Studio nutzen kann, ohne sie erneut herunter zu laden. Ich werde an der Datei-Struktur wohl ein wenig basteln und anschließend GPT4All neue Pfade eingeben müssen. Das sollte doch möglich sein, oder hab ich da jetzt irgendwas grundlegend falsch verstanden?

    • @i-love-2-code
      @i-love-2-code 6 місяців тому

      Vielen Dank für deine Rückmeldung! Das ist wirklich unglaublich wertvoll. Nicht unbedingt wegen irgendwelcher Yt-Algorithmen, sondern vor allem, weil man sonst keine Ahnung hat, was dem Zuschauer gefallen und was ihn eher gelangweilt hat. Deshalb bin ich für jedes Feedback sehr dankbar. Zu deiner Frage: Man kann Modelle aus beiden Programmen im jeweils anderen verwenden. Models aus LMS in GPT4ALL zu verwenden ist völlig unkompliziert. Sie müssen sich nur den gleichen Model-Ordner teilen. Models von GPT4ALL in LMS ist dagegen mit etwas Aufwand verbunden. Da sich beide Tools einen Model-Ordner teilen, wird LMS nach einem Download von GPT4ALL ein "uncategorized model file" erkennen. Aber auch hier hilft LMS bei der Auflösung, indem es einen Hinweis gibt, wie die erwartete Ordnerstruktur aussieht: Publisher\Repository\Modelfile.gguf Als Bsp: TheBloke\Mistral-7B-Instruct-v0.2-GGUF\mistral-7b-instruct-v0.2.Q4_K_S.gguf Das ist dann etwas manueller Aufwand. Ich würde die Modelle also eher über LM-Studio herunterladen, da hat man sowieso mehr Auswahl und spart sich den Mehraufwand. Hoffe das hilft ein wenig :)

    • @fortunato1957
      @fortunato1957 6 місяців тому

      ​@@i-love-2-code So habe ich mir das auch gedacht. LMS benutzen, um Modelle in die von LMS gewünschte Ordner-Struktur reinzuladen, und dann GPT4All diesen Ordner präsentieren. Danke für flottes Feedback, werde deine Videos weiter mit großem Interesse verfolgen. Abonniert habe ich schon.

  • @frankschuler9738
    @frankschuler9738 6 місяців тому

    Vielen Dank für das gute Tutorial.

    • @i-love-2-code
      @i-love-2-code 6 місяців тому

      Freut mich sehr, wenn es dir gefallen hat :) Danke für das Feedback

  • @frankschuler9738
    @frankschuler9738 6 місяців тому

    Ich bin kein Programmierer. Mir hat das Tutorial sehr gefallen. Es ist alles gut verständlich erklärt und nachvollziehbar. Vielen Dank dafür! Bin schon auf das nächste Video gespannt. 🙂 MfG Frank

    • @i-love-2-code
      @i-love-2-code 6 місяців тому

      Gerade bei diesem Video war ich mir nicht sicher, ob es wirklich verständlich ist. Umso dankbarer bin ich für Dein Feedback. VG

    • @frankschuler9738
      @frankschuler9738 6 місяців тому

      @@i-love-2-code Von Hause aus bin ich ein Dinosaurier aus der Hardwareentwicklung.Jetzt bin ich Rentner. Habe sozusagen die Entwicklung der Programmiersprachen und BS von Beginn an mitgemacht und verfolgt. Irgendwann ging es so schnell, daß man den Anschluß verlor bzw. man hat sich spezialisiert. Um all meine Ideen umzusetzen fehlt es an Zeit und ich bin dankbar für diese Tutorials, wie du sie machst. Die Lernkurve ist dadurch sehr steil und das macht Spaß. Für mich ist natürlich die Brücke zwischen Mikrocontrollern und KIs sehr interessant. Zur Zeit arbeite ich aus Interesse an einer Infraschallalarmanlage. Eine Datenanalyse mit einer KI wäre in dem Fall sehr interessant. Jetzt könnte ich noch sehr viel schreiben, aber dabei belassen wir es erst mal... VG

    • @i-love-2-code
      @i-love-2-code 6 місяців тому

      @@frankschuler9738 Wow das klingt spannend. Vor allem weil das auch einen Bereich anschneidet, den ich bisher gar nicht so sehr auf dem Schirm hatte. Tatsächlich lese ich auch von Infraschallalarmanlagen heute zum ersten Mal. Umso schöner - da ich diesen Kanal gestartet habe, um mit interessanten Menschen in Kontakt zu kommen und über "meinen" Tellerrand hinauszuschauen. Meine MC Zeit ist leider eine Weile her, muss mich da mal belesen was es in dem Bereich so alles gibt. Ich werde mir auch mal Gedanken machen, wie ich einen Ort zum direkten Austausch (alles was über Kommentare hinaus geht) schaffen kann. VG

    • @frankschuler9738
      @frankschuler9738 6 місяців тому

      ​@@i-love-2-code Einen Ort zum direkten Austausch würde ich sehr begrüßen. Es ist schwer Gleichgesinnte zu finden. Durch meine langjährige Arbeit, konnte ich viel Wissen und interessante Dinge erfahren. Dadurch sind meine Interessen sehr breitbandig, von Hardware, Software, Sensoren, physikalische Phänomene, Medizin, Psychologie, Biochemie, Datenanalyse bis hin zur Naturheilkunde auf naturwissenschaftlicher Basis. Momentan überrollen mich die alltäglichen Probleme der heutigen Politik (Energiewende, Heizungsgesetz, Grundsteuer, Gesundheit, Kfz, gesunde Ernährung, Instandsetzungsprobleme und vieles mehr) Man verplempert seine kostbare Lebenszeit mit ideologisch gesetzten Hürden. Wenn ich nicht so alt wäre, würde ich das Land verlassen. Zukunftsplanung ist derzeitig unmöglich. Wenn das nicht wäre, hätte ich jetzt Zeit meine Ideen und gesammelten Erfahrungen die ich habe umzusetzen. Leider schaffe ich das momentan nicht. Ich bin immer für einen interessanten Gedankenaustausch offen. Wir können alle nur dazu lernen. VG

  • @niemand4128
    @niemand4128 7 місяців тому

    Die arme Tastatur 😢

    • @i-love-2-code
      @i-love-2-code 7 місяців тому

      Hahaha, das klingt in dem Video wirklich gefährlich :) Aber ich gelobe Besserung!

  • @M.Voelkel
    @M.Voelkel 7 місяців тому

    Das ist ein Niederknien wert - danke, danke und nochmals danke ! 14.03.´24

    • @i-love-2-code
      @i-love-2-code 7 місяців тому

      Ich danke dir für das positive Feedback! Freut mich riesig

  • @Re-Ha-B
    @Re-Ha-B 7 місяців тому

    Am PC ist das anders und es liegt eine allgemeine Störung vor.

    • @i-love-2-code
      @i-love-2-code 7 місяців тому

      Ja, die es gibt wohl gerade Probleme. Jedoch funktioniert der Weg um das Tool wieder lauffähig zu bekommen. Mehrfach am PC getestet (auch gerade eben nochmal)

    • @Re-Ha-B
      @Re-Ha-B 7 місяців тому

      @@i-love-2-codenur in Firefox geht es z.B. nicht so. Finde den Weg eh komisch um Cookies und Cache zu löschen. Naja, trotz allem ist es wohl kaputt gerade.

    • @i-love-2-code
      @i-love-2-code 7 місяців тому

      Vielen Dank @Re-Ha-B für den Tipp! Im Firefox: F12 drücken, auf Reiter Storage wechseln und den Rest wie im Video beschrieben durchführen. Ich passe die Beschreibung mal an. Viel Erfolg & ein angenehmes Wochenende

    • @Re-Ha-B
      @Re-Ha-B 7 місяців тому

      @@i-love-2-codeich mag wenn Leute Kritik annehmen und nicht gleich ausrasten. Daher dir auch ein tolles Wochenende! :)

  • @oskarwald
    @oskarwald 7 місяців тому

    Danke für das Video. Ein Faktencheck wäre nicht schlecht gewesen :) Das Porta Nigra steht nämlich in Trier und nicht in Hamburg :))

    • @i-love-2-code
      @i-love-2-code 7 місяців тому

      Oh ja, vielen Dank für den Hinweis! Das ist mir tatsächlich entgangen. Ich wollte noch auf die Notwendigkeit der Prüfung solcher Fakten hinweisen, aber bin dann selbst in die Falle getappt.