Es gibt inzwischen sooo viele KI-Modelle und von jedem immer mehr Sub-Versionen und neue Versionen, ich finde es sehr verwirrend, da überhaupt einen groben Überblick (Unterschiede, Stärken usw.) zu bekommen. Könntet Ihr hierzu vielleicht einmal ein Video machen? Ein Vergleich der wichtigsten/besten KI-Modelle, Stärken, Schwächen, bevorzugte Einsatzgebiete usw!?
Es gibt ja auch so viele verschiedene Menschen. Jeder antwortet auf die gleiche Frage anders. Wird wohl mit KI-Modellen nicht anders sein. Die Frage ist: Wer könnte dein bester KI-Freund sein?
Wir stecken noch in den Kinderschuhen aber es geht mit sieben Meilenstiefeln vorwärts! Bin gespannt und habe keine Angst da die Zukunkt sich ihren Weg bahnt und nicht aufzuhalten ist 🎉
Ich bin so froh über eure Beiträge!!!😊Von euch ständig auf den neuesten Stand gebracht zu werden, ist sooo hilfreich! P.S. wenn es das offline für android gibt, bitte informieren.
Super! Werde ich testen! Danke dir! Frage: Hast du eine Cirka-Angabe zum Verhältnis Model(Größe)/verbauter Arbeitsspeicher? Ich habe 24 Gb Ram. Würdest du damit das 7 GB-Model flüssig nutzen?
Ich habe bisher nur mal eine 4GB große Version von Llama lokal laufen lassen, deutsche Gramatik war da wesentlich schlechter als bei der freien ChatGPT Variante, die ich aus dem Netz kenne. Ich dachte, das läuft auf der Grafikkarte und da sind 12GB bei mir nicht allzu viel aber mein Rechner hat 64GB Ram, da könnte ich vielleicht doch mal die größeren Modelle testen.
Danke liebe digitale Profis. Gibt es auch ein Modell, bei dem ich meine eigenen pdfs auswerten lassen kann? Mir geht es um wissenschaftliche Literatur. D.h. da Modell muss schon trainiert sein, um zu verstehen, dass sie aus pdfs Abstracts zieht etc.
weil man heute keine Vorstellung mehr darüber hat wieviel Daten 1GB sind. Wir reden hier von Text. Keine Bilder, Audios oder gar Videos. und ein Buchstabe unkomprimiert gerade mal ein byte benötigt
Nein. Dazu sind die Modelle nicht gemacht und selbst wenn es ginge, Sie hätten nicht die benötigte Rechenleistung um relevante Lernergebnisse zu erzielen. Lernen bedeutet (Laienbeispiel) 20 Top-Grafikkarten über Wochen/Monate Vollgas laufen zu lassen. Allein die Stromkosten werden bei Hobbybastlern schnell für Ernüchterung sorgen.
Danke. 1 Bemerkung: RAM kann per USB erweitert werden. 1 Frage: Kann so ein Modell meinen eigenen PC als Datenbasis einlesen, um endlich diese völlig unzureichende Windows-File-Explorer-Suche zu verbessern? Oder gibt es ne Art google-für-clientonly?
Vorallem wird hier ja VRAM benötigt... Grafikkarte und nicht Arbeitsspeicher, wobei mein Nitro5 mit 4GB tatsächlich von Stable Diffusion bis GPT4ALL noch mit allen zurechtkommt...
Gute Frage und wenn ich auf jede Antwort 2min warten muss, dann macht das keinen Spaß (Ist das so???). Dies wurde im Beitrag ausgelassen. Aber diese Info befördert alle Euphorie in den Müll, was ja für den Kanal nicht zielführend ist.
Vielen Dank für euren tollen Kanal. Hab schon viel gelernt, aber heute ich bin einfach zu .... kann das Programm downloaden, aber dann komme ich nicht weiter. Arbeitsspeicher ausreichend vorhanden. Exe Datei kann nicht geöffnet werden, Programm im Bereich der Files, (kleines Rad) dreht sich noch immer, seit ca. 2h). Kann mir bitte jemand helfen, was mache ich falsch?
Das klingt ja sehr spannend, ich werde es ausprobieren. Danke für das Video. Gibt es denn auch eine Möglichkeit, in LMStudio so eine lokale KI mit eigenen Textdaten zu trainieren? Wenn ja, würde mich ein Tutorial dazu brennend interessieren.
Ja, ich denke mir auch die ganze Zeit warum er von Arbreitsspeicher redet. Das ist eine reine GPU Sache. Ich habe in meinem Rechner 32GB RAM aber leider nur 6GB auf der NVIDIA.
Da ich das Thema grade betrieblich teste, steht mir ein Server mit 15 CPUs und 42 GB RAM zur Verfügung. Allerdings keine Grafikkarte. Mal sehen, wie gut das dann läuft. Bei einigen Modellen, welche ich zuvor mit neuen Varianten von beispielsweise GPT4all getestet habe, hat mein Laptop, welches über einen kleinen Onboardchip verfügt, etwa das Doppelte an Leistung gebracht. Klar, GPU... Ich werde berichten. Erst mal herunterladen. Danke für die Erstellung des Tutorials!
Erinnert Ihr Euch noch an den Film „Er ist wider da“. Die Szene, in der Hitler das erste mal das Internet gezeigt wurde und er erstaunt feststellte, das dieses ganze Internetdings ja nicht vom Reichspropagandministerium kontrolliert wird. Die Azubine: „Was interessiert Sie denn mein Führer?“ Hitler: „WELTHERRSCHAFT!“ Hmmm, da bieten sich ja kaum 10 Jahre später ganz andere Möglichkeiten….
Erstmal wie immer ein sehr informatives und gutes Video, ich habe es genauso gemacht wie im video und habe den mal gefragt ob er Programmieren kann und wollte Hilfe. Er hat eine Programmiersprache vorgeschlagen und das er Erfahrung damit hat, aber mir dann empfohlen eine Dienstleistung zu wählen und eine email mit meinem Wunsch verschicke und bekomme dann eine Antwort. Denke die wollen so noch lukrative Aufträge sammeln, meine Vermutung.
Link zum Artikel: digitaleprofis.de/kuenstliche-intelligenz/ki-chatbots/kostenlose-unzensierte-ki-chatbots-offline-nutzen/
ich kan nur schwachstellen sehen offlin gegangen bin ganze online rein gehung
Es gibt inzwischen sooo viele KI-Modelle und von jedem immer mehr Sub-Versionen und neue Versionen, ich finde es sehr verwirrend, da überhaupt einen groben Überblick (Unterschiede, Stärken usw.) zu bekommen. Könntet Ihr hierzu vielleicht einmal ein Video machen? Ein Vergleich der wichtigsten/besten KI-Modelle, Stärken, Schwächen, bevorzugte Einsatzgebiete usw!?
Es gibt ja auch so viele verschiedene Menschen. Jeder antwortet auf die gleiche Frage anders. Wird wohl mit KI-Modellen nicht anders sein. Die Frage ist: Wer könnte dein bester KI-Freund sein?
@@cybercrazy1059 Der, der seinen zugewiesenen Job am besten, effizientesten und intelligentesten macht?
Wieder ein sehr gutes Video mit top Informationen.
Vielen Dank!
Danke für die hilfreichen Infos zur Datensicherheit bei lokalen Sprachmodellen. Super Anleitung!
bietet LM Studio auch die Möglichkeit Modelle nachzutrainieren oder Datein wie PDFs zu analysieren?
Super Info. Danke. Weiter so. Werd ich gleich mal testen 😎
Danke! Gründlich, sachlich, informativ!
Wir stecken noch in den Kinderschuhen aber es geht mit sieben Meilenstiefeln vorwärts! Bin gespannt und habe keine Angst da die Zukunkt sich ihren Weg bahnt und nicht aufzuhalten ist 🎉
Ich bin so froh über eure Beiträge!!!😊Von euch ständig auf den neuesten Stand gebracht zu werden, ist sooo hilfreich! P.S. wenn es das offline für android gibt, bitte informieren.
Super! Werde ich testen! Danke dir! Frage: Hast du eine Cirka-Angabe zum Verhältnis Model(Größe)/verbauter Arbeitsspeicher? Ich habe 24 Gb Ram. Würdest du damit das 7 GB-Model flüssig nutzen?
7GB sollte gehen je nach Modelgrösse. Mann muss es GPU Offloaden.
@@pierruno Danke dir 🙂
Ich habe bisher nur mal eine 4GB große Version von Llama lokal laufen lassen, deutsche Gramatik war da wesentlich schlechter als bei der freien ChatGPT Variante, die ich aus dem Netz kenne. Ich dachte, das läuft auf der Grafikkarte und da sind 12GB bei mir nicht allzu viel aber mein Rechner hat 64GB Ram, da könnte ich vielleicht doch mal die größeren Modelle testen.
Kann man diese KI selber tranieren?
Hallo Hallo ...Ich habe einen Mac aber leider keinen M1 Chip da bin ich raus oder?
(Wie) kann ich Spracherkennung und Ausgabe über Soundtreiber einstellen?
was genau heißt Modell??
ich kann keine models laden da kommt ein fehler bitte helfen
Gibt es zu diesem Video hier ein Folge Video
und wie kann ich es nutzen und es nutzt die GPU und Ram so das man auch Größere benutzen kann
Kann man damit auch auf lokale Dateien z.B. zugreifen? Wenn ich z.B. möchte, dass die KI auf ein PDF oder einen Ordner zugreift... Geht das damit?
Wäre cool aber ziemlich wahrscheinlich nicht
Danke liebe digitale Profis. Gibt es auch ein Modell, bei dem ich meine eigenen pdfs auswerten lassen kann? Mir geht es um wissenschaftliche Literatur. D.h. da Modell muss schon trainiert sein, um zu verstehen, dass sie aus pdfs Abstracts zieht etc.
hm wieso kann man das offline nutzen? wo kommen die Infos her?
Tja, das gesamte Wissen der Menschheit in ein paar Gigabyte gespeichert…
weil man heute keine Vorstellung mehr darüber hat wieviel Daten 1GB sind. Wir reden hier von Text. Keine Bilder, Audios oder gar Videos.
und ein Buchstabe unkomprimiert gerade mal ein byte benötigt
Danke für das Video. Frage: lernt die KI durch meine Eingaben? Kann ich die KI mit Daten selber “füttern”?
Nein. Dazu sind die Modelle nicht gemacht und selbst wenn es ginge, Sie hätten nicht die benötigte Rechenleistung um relevante Lernergebnisse zu erzielen. Lernen bedeutet (Laienbeispiel) 20 Top-Grafikkarten über Wochen/Monate Vollgas laufen zu lassen. Allein die Stromkosten werden bei Hobbybastlern schnell für Ernüchterung sorgen.
Danke.
1 Bemerkung: RAM kann per USB erweitert werden.
1 Frage: Kann so ein Modell meinen eigenen PC als Datenbasis einlesen, um endlich diese völlig unzureichende Windows-File-Explorer-Suche zu verbessern? Oder gibt es ne Art google-für-clientonly?
Vorallem wird hier ja VRAM benötigt... Grafikkarte und nicht Arbeitsspeicher, wobei mein Nitro5 mit 4GB tatsächlich von Stable Diffusion bis GPT4ALL noch mit allen zurechtkommt...
Sorry aber das ist mir zu kompliziert. Ich bräuchte einen Chat der mir vorgefertigte Antworten liefert je nachdem was ich eintrage. Wo finde ich das?
kann ich auf mein Laptop von 2015 installieren? 8 Gb Ram. kann man mit brauchbaren Ergebnissen rechnen?
Gute Frage und wenn ich auf jede Antwort 2min warten muss, dann macht das keinen Spaß (Ist das so???). Dies wurde im Beitrag ausgelassen. Aber diese Info befördert alle Euphorie in den Müll, was ja für den Kanal nicht zielführend ist.
Habe noch ein ne Intel Mac… wird dies nicht unterstützt?
Vielen Dank für euren tollen Kanal. Hab schon viel gelernt, aber heute ich bin einfach zu .... kann das Programm downloaden, aber dann komme ich nicht weiter. Arbeitsspeicher ausreichend vorhanden. Exe Datei kann nicht geöffnet werden, Programm im Bereich der Files, (kleines Rad) dreht sich noch immer, seit ca. 2h). Kann mir bitte jemand helfen, was mache ich falsch?
Benötigt dieses program eine Grafik Karte ?
Das klingt ja sehr spannend, ich werde es ausprobieren. Danke für das Video.
Gibt es denn auch eine Möglichkeit, in LMStudio so eine lokale KI mit eigenen Textdaten zu trainieren? Wenn ja, würde mich ein Tutorial dazu brennend interessieren.
nutzt man für sowas nicht ne GPU?
Ja, ich denke mir auch die ganze Zeit warum er von Arbreitsspeicher redet. Das ist eine reine GPU Sache. Ich habe in meinem Rechner 32GB RAM aber leider nur 6GB auf der NVIDIA.
Luna Uncensored finde ich klasse
Hallo ,gibt es was für Android wäre super 👍
Da ich das Thema grade betrieblich teste, steht mir ein Server mit 15 CPUs und 42 GB RAM zur Verfügung. Allerdings keine Grafikkarte. Mal sehen, wie gut das dann läuft.
Bei einigen Modellen, welche ich zuvor mit neuen Varianten von beispielsweise GPT4all getestet habe, hat mein Laptop, welches über einen kleinen Onboardchip verfügt, etwa das Doppelte an Leistung gebracht. Klar, GPU...
Ich werde berichten. Erst mal herunterladen. Danke für die Erstellung des Tutorials!
Und ... ? Gibt's schon erste Erfahrungen? Oder lädt es immer noch herunter nach 8 Tagen? ;-)
@@oliverrafelsberger5554 Es läd immernoch. V90 Modem mit 52k Verbindung. 🙂
@@oliverrafelsberger5554 Nun seit 2 Wochen. Ich denke das Ding hat sich erledigt.
Gibt es Lösungen, die ich auf meine eigenen Daten trainieren kann?
Ja. Bitte legen Sie sich Budget für die Stromrechung bereit.
Leider hat mein Macbook noch nicht die neue M-Chipgeneration. Sehr schade.
Lappi von 2019 läuft zu langsam. CPU zu 100Prozent ausgelastet. RAM war nicht das Problem.
Kommt man damit auch klar, wenn die Englisch - Kenntnisse eher dürftig sind?
Ja
Nur für Macs mit Intel-Prozessor funktioniert das so nicht. :(
mit einem M1 viel zu langsam.. denke ab M4 mit viel RAM ist es gut möglich
Kannst du mal eine Beschreibung mal machen für eine KI um Bilder zu generieren offline. Ich weiß das es so etwas auch kostenlos gibt.
Ich nutze dafür stable Diffusion
Erinnert Ihr Euch noch an den Film „Er ist wider da“. Die Szene, in der Hitler das erste mal das Internet gezeigt wurde und er erstaunt feststellte, das dieses ganze Internetdings ja nicht vom Reichspropagandministerium kontrolliert wird. Die Azubine: „Was interessiert Sie denn mein Führer?“ Hitler: „WELTHERRSCHAFT!“ Hmmm, da bieten sich ja kaum 10 Jahre später ganz andere Möglichkeiten….
Könnt euch einen KI-Computer kaufen um solche KI Modelle zuhause zu nutzen.
sicher wegen Offline...haha sobald du wieder Online bist wird "Gesendet"...alle anfragen werden gepuffert..;-)
Erstmal wie immer ein sehr informatives und gutes Video, ich habe es genauso gemacht wie im video und habe den mal gefragt ob er Programmieren kann und wollte Hilfe. Er hat eine Programmiersprache vorgeschlagen und das er Erfahrung damit hat, aber mir dann empfohlen eine Dienstleistung zu wählen und eine email mit meinem Wunsch verschicke und bekomme dann eine Antwort. Denke die wollen so noch lukrative Aufträge sammeln, meine Vermutung.