GPT4All: Open Source AI can already keep up with ChatGPT!

Поділитися
Вставка
  • Опубліковано 7 чер 2023
  • Local. Free of charge. Active community. And above all, open. That sounds exciting.
    Here are the links:
    gpt4all.io/index.html
    home.nomic.ai/about
    / how-google-defeated-op...
    Self learn computer science for free on my website: bootstrap.academy/
    *All my social media portals*:
    _ bio.link/themorpheus
    Discord:
    the-morpheus.de/discord.html
    Support me - Thank you!:
    www.patreon.com/user?u=5322110
    www.paypal.me/TheMorpheus

КОМЕНТАРІ • 126

  • @8bitbrainz
    @8bitbrainz 11 місяців тому +49

    Es wär echt cool wenn die so nen Client programmieren würden, wo jeder seine Graka zur verfügung stellen kann um gemeinsam an nem richtig richtig guten modell zu rechnen. Würde mich glatt beteiligen.

    • @thomasspornraft2612
      @thomasspornraft2612 11 місяців тому +14

      Sowas wie "fold at Home" damals als man Proteine berechnen konnte.

    • @blazzycrafter
      @blazzycrafter 11 місяців тому +4

      gibt es für all LLM´s nennt sich KoboldAI zumindest fürs generieren der texte

    • @fortunato1957
      @fortunato1957 11 місяців тому +4

      @@thomasspornraft2612 Ja, oder "SETI@Home". Ich glaube, das gibt es immer noch.

    • @X4n1c
      @X4n1c 10 місяців тому +1

      yeaaa distributed computing

  • @Labtecs937
    @Labtecs937 11 місяців тому +20

    So etwas könnte ich mir Mega gut für ein internes Firmen Wiki vorstellen. So könnte man relativ schnell an das know How kommen welches die Arbeitskollegen zusammengetragen haben ohne dabei sich selbst durch den Daten Berg wühlen zu müssen.

    • @Schorsch180
      @Schorsch180 11 місяців тому

      sehr gute idee

    • @creytax9802
      @creytax9802 11 місяців тому

      Kann ich mir auch sehr gut für Behörden vorstellen.

    • @AS-os3lj
      @AS-os3lj 11 місяців тому

      @@creytax9802 Behörden und Neuland... Ich glaube nicht. Die würden eine ChatGPT Fax Schnittstelle entwickeln...

  • @mrysexe
    @mrysexe 11 місяців тому +22

    Wenn man findet, dass Stable Diffusion nicht an Midjourney heran kommt, hat man nur noch nicht genug Stable Diffusion Models gesehen - change my mind

    • @Tudas
      @Tudas 11 місяців тому +1

      Also einfach aus dem Haus raus, ohne Models, Lora, Embeddings etc. ist Stable Diffusion definitiv schlechter, genauso muss man viel genauer mit dem Prompts sein (inkl. Negativer), aber mit mehr Arbeit, ist Stable Diffusion definitiv besser.

    • @lars7898
      @lars7898 11 місяців тому +1

      Stable Diffusion kann schon ziemlich gute Ergebnisse erzielen, wenn man mit den Prompts umgehen kann. Zwischen SD1.4 und 1.5 ist auch ein ziemlicher Sprung, finde ich. Dazu kommt, dass Midjourney ja auf leistungsfähigen Servern läuft, während bei Stable Diffusion jeder mit seiner eigenen Hardware herhalten muss. Hat man wenig VRAM, muss man mit geringer Auflösung leben...

    • @mrysexe
      @mrysexe 11 місяців тому

      @@lars7898 +6GB VRAM Speicher reichen aus, um Ergebnisse, die Midjourney gleichen, zu generieren. Theoretisch würden auch +4GB VRAM ausreichen, läuft dann aber auch dem entsprechend instabil. Wenn man sich von einer KI dann einen Prompt generieren lässt und man sich minimal mit Models beschäftigt hat, kommt man auf mindestens gleich gute Ergebnisse. Midjourney ist dafür aber benutzerfreundlicher und wie du auch gesagt hast, besser für Leute mit schlechter Hardware.

    • @linux292
      @linux292 11 місяців тому +3

      Stable Diffusion ist schon deshalb besser, weil es lokal läuft und man kostenlos unbegrenzt viele Bilder generieren kann.

  • @hobo_1616
    @hobo_1616 11 місяців тому +5

    Mal wieder ein super informatives Video! :)
    Hast du schon von "QLoRA" gehört? Ist soweit ich es verstanden habe eine neue Technik Finetuning für LLM vorzunehmen. Das spannende hierbei ist, dass das Trainieren extrem schnell ist und daher auch mit begrenzten Resourcen realisiert werden kann.

  • @user-xu3so2ug1f
    @user-xu3so2ug1f 11 місяців тому +4

    open source projekte sind echt was cooles :) ich schreibe auch eigentlich allen meinen code komplett offen

  • @WollknaeuelSockenbart666
    @WollknaeuelSockenbart666 11 місяців тому +6

    I love it. And I'm using it in my IT studies together with GPT 4. Thanks for y

  • @PhalzuBG
    @PhalzuBG 11 місяців тому +2

    Ich arbeite mit GPT4All schon ein paar Wochen und finde die beiden vicuna-Modelle mit Abstand am besten bisher :D

  • @valentinsipad4269
    @valentinsipad4269 11 місяців тому +2

    So lange darauf gewartet, dass das passiert

  • @soacker264
    @soacker264 10 місяців тому

    Spannend!

  • @ugurcanlar739
    @ugurcanlar739 10 місяців тому +1

    Danke!

  • @chaosaiart
    @chaosaiart 11 місяців тому +1

    Stable Diffusion ist weit vor Midjourney.
    Midjourney ist einfach für Neulinge. bei Stable Diffusion ist aber so viel mehr Möglich und die Ergebnisse wenn man sich auskennt sind um Welten besser. (Controlnet usw.)

  • @tinkerpaper
    @tinkerpaper 10 місяців тому +2

    Kannst du auch mal ein tutorial machen wo du so eine Ki programmierst und trainierst (am besten mit tensorflow)?

  • @1234minecraft5678
    @1234minecraft5678 11 місяців тому

    Bin mal gespannt auf orca

  • @Philipp..
    @Philipp.. 11 місяців тому +3

    Ich könnte mir gut vorstellen wie verschiedene spezialisierte Modelle zusammenarbeiten könnten indem sie durch ein auf Konversation spezialisiertes Modell koordiniert werden.

  • @aketo8082
    @aketo8082 11 місяців тому

    Vielen Dank. Wie trainiert man den GPT4All? Kann man auch einstellen, das die GPU genutzt wird?

  • @19OEmer
    @19OEmer 11 місяців тому +5

    Es wäre Cool wenn es ein Plugin für das deutsche Steuersystem geben würde. Das wäre eine erleichterung für viele freelancer :D

  • @d030berlin
    @d030berlin 11 місяців тому +2

    haha am Ende erzählst du "man kann das ganze auch selbst trainieren" und ich denk mir, "ja geil das will ich jetzt wissen"... und Video war zu Ende :-) Aber geiles Video. Danke

  • @rektaltotal1604
    @rektaltotal1604 11 місяців тому

    Doch, wir haben den KEY. ;) ;)

  • @dtjanixx
    @dtjanixx 11 місяців тому +2

    du kannst ein 2. openai konto nutzen und den api key für gpt 3.5 nutzen (AutoGPT)

  • @josefjohannmichel
    @josefjohannmichel 10 місяців тому +2

    ChatGPT ist auch für musikalische Kompositionen interessant, da es musicxml lesen und schreiben kann. ChatGPT ist aber im musikalischen Kompositionsbereich nicht besonders trainiert (Aussage von ChatGPT: musikalische Komposition ist schwierig, ich muss noch viel lernen). Hier wäre interessant ob GPT4all ein Möglichkeit für ein speziell auf musikalische Kompositionen trainiertes Modell wäre. Wie fragt man bei der Opensource Entwicklergemeinde an, ob sich eine Gruppe dieses Themas annehmen könnte und ein derartiges open Source Modell erstellt, dass man selber noch weiter über eigene musicxml Dateien trainieren kann.

  • @chrishonesscheid1399
    @chrishonesscheid1399 11 місяців тому +1

    Danke dir für die info.
    Aber kannst du vllt noch ein installierungsvideo hochladen?
    Weil gpt4all mir grade eine möglichkeit zur verknüpfung bietet. Und da noch weitere interessante aspekte sind die ich gerne erklärt bekommen hätte😅

    • @Hotte1967
      @Hotte1967 8 місяців тому

      Für mich wäre interessant wie ich chatgpt sage, dass die Models einen anderen Pfad haben.

  • @Olaf_Schwandt
    @Olaf_Schwandt 10 місяців тому

    hi, kann man auf lokale Files zugreifen? wenn ja, wird mit den gelesenen Inhalten trainiert, somt das Modell erweitert und wird das erweiterte Netz dann abgespeichert?

  • @larscarminke364
    @larscarminke364 11 місяців тому +2

    Moin hab auch mit gpt4all herum gespielt . wenn models in Englisch antworten ,schreibe ich nochmal" please speak in german " dann schreibt er alles nochmal in deutsch ;).

  • @VampireSilence
    @VampireSilence 10 місяців тому

    14:50 Songtexte stelle ich mir um Bezug auf Originalität schwierig vor, denn die künstlerische Tiefe ergibt sich ja zu einem gewissen Anteil daraus, dass es etwas so in der Form eben noch NICHT gegeben hat. D.h. je größer die Abweichung von den Trainingsdaten, desto origineller ein Songtext. Und genau das wird mit dem Modell nur extrem selten passieren. Trotzdem kann natürlich auch ein weniger origineller Text unter anderen Gesichtspunkten dem Anwender gefallen.

  • @Lauch-Melder
    @Lauch-Melder 10 місяців тому

    Puh, ich werde alt. 😂 Ich erinnere mich noch, dass ich als Kind Tage und Wochen damit verbracht habe in der Config von Logox von G-DATA Antworten auf alle möglichen Fragen zu erstellen um mich dann damit halbwegs unterhalten zu können.
    Schon interessant, wie die Technik sich über die Jahrzehnte entwickelt hat. :D

  • @thomasspornraft2612
    @thomasspornraft2612 11 місяців тому +4

    Weisst du ob man das auf der lokalen GPU zum laufen bekommt?
    In den Docs gibts immerhin ein Tutorial wie mans auf Google Colab laufen lassen kann.
    Finde bisher das "snoozy" modell recht gut aber auf CPU ist das recht langsam und je länger der chat wird desto langsamer scheint es zu werden
    Was hadt du für ne CPU? Scheint bei dir schneller. Hab selbst Ryzen 3900x

    • @8bitbrainz
      @8bitbrainz 11 місяців тому +2

      Hay ich hab mich nicht eingehend damit beschäftigt, aber auf meinem Steamdeck gehts sogar recht fix. Dachte daher, die Grafikeinheit wurde genutzt. Scheint auch so als sei die Oberfläche mit DirectX oder so, weil ich die Werte eingeblendet bekommen hab a la Steamdecktools (so wie rivatuner) Alsooo ich hab trotzdem keine Ahnung.
      EDIT:
      Oh und iwie war die CPU auslastung nur auf 40% aber bei meinem 24 kerner alles auf 100% das war echt komisch. Oder ich habs das nur geträumt.. hm ne ich bin so verwirrt.

    • @zwixx259
      @zwixx259 11 місяців тому +1

      Probier mal die Threads hochzusetzen in deinen Einstellungen. Bei mir hat er irgendwas nicht ordentlich erkannt und meine CPU war gerade mal zu 20% ausgelastet bei der Berechnung.

    • @thomasspornraft2612
      @thomasspornraft2612 11 місяців тому

      @@zwixx259 hab schon 24 Thread am start und die laufen alle auf 100%
      Vielleicht bin ich auch nur zu ungeduldig. zuviel Bard und ChatGPT genutzt 😂

    • @8bitbrainz
      @8bitbrainz 11 місяців тому +1

      Nö habs grad nochmal getestet. Es werden halt wirklich einfach nur die 8 Threads von der CPU genutzt und das scheint echt auszureichen. (bzw das ist auchdas einzige was das steamdeck zu liefern hat) Davor hab ich es auf nem kleinen Laptop mit nur 4 Kernen (und threads) getestet wo es wirklich sehr sehr langsam war. Da waren allerdings 12 GB ram verbaut. Beim Steamdeck jedoch 16 (wo aber (custom value) der Graka gehören (in dem fall 4 gb))... Hab aber ein anderes Programm verwendet. Da war das mit dem RAM management noch anders. Kurz gesagt: Auch das Steamdeck benutzt nicht die Grafikeinheit und es ist wirklich subjektiv wie schnell die Wörter errechnet werden.. Sorry dafür .-. Ich fand es für ein Handheldgerät echt schnell, weil ich diesen lahmen Laptop gewohnt war. Die endgültige Frage bleibt: Warum hat mein Hauptrechner 100% und errechnet das schnell, jedoch hat mein Steamdeck auch ne recht schnelle rechenzeit- ist aber währenddessen nur auf 40--50%!? Wenn unser guter Herr Morpheus will, dann schick ich ein paar benchmarks und Videobeweise nach. Auch wenn ich voll falsch liege, ich will hier nur Testergebnisse liefern.

  • @jovankaschauder3369
    @jovankaschauder3369 10 місяців тому +1

    Ich bin noch in der Ausbildung und lerne viel über deinen Kanal. Diesmal war Open-Source KI dran. Ich sollte sie lokal installiern und jetzt kam die Idee, , dass alle Abteilungen darauf zugreifen können über den localhost? Wie kann ich das bewerkstelligen? Geht das überhaupt?

  • @augustinaugustein5748
    @augustinaugustein5748 11 місяців тому +2

    Wirklich interessante Videos. Hast einen neuen Zuschauer gewonnen.
    Gibt es denn überhaupt schon eine (kostenlose) KI, Modelle, Möglichkeiten für vollkommene DAU’s sich kleine Hilfsprogramme in Python schreiben zu lassen, so Kram wie nach individuellen Vorgaben und Vorlieben mal Verzeichnisse aufräumen zu lassen oder Lesezeichen in PDF Dateien erstellen zu lassen wo die nicht verfügbaren Originaldokumente leider kein Inhaltsverzeichnis hatten und so Tüddelkram wo man auch nicht ohne weiteres Programme findet weil’s sich gar nicht lohnt so was als Programmierer raus zu hauen? Habe mal ChatGPT 3.5 und Bard gefragt weil ich gerade so einen Haufen PDF’s ohne Lesezeichen habe und das Lernen abends auf dem Tablet ohne Lesezeichen einfach nervt, aber das wurde nix. Viel Code, nur Fehlermeldungen, keine Lesezeichen.

    • @OmegaOctagonTesseract
      @OmegaOctagonTesseract 10 місяців тому

      *_"...weil’s sich gar nicht lohnt so was als Programmierer raus zu hauen?"_*
      Was?
      Jeder mit ner 'Hacker-Seele', schreibt sich solche Sachen doch selber, um sich die 'Routinearbeit' zu erleichtern...
      Ich hab es 'damals' gemacht, ... und vor einiger Zeit, in nem Video von 'Halbzwilling'(glaub ich) gesehen, das es andere wohl auch machen...
      Das müsste halt nur irgendwo hochgeladen werden, bzw. müsste man wissen wo man so Etwas findet,
      für genau solche Fälle wie deinen, u/o meinen, in anderen Bereichen...
      Aber man kann noch so viel 'potenzielles Talent' haben,
      ohne 'Autodidakt' zu sein, wie in meinem Fall, und der DAU-Version bzgl. Google u co,
      ist man einfach aufgeschmissen...
      Und Programmierer wie Mathematiker sind ja eingebildet wie nichts gutes,
      mit *_ganz wenigen Ausnahmen_* wie ich einen in 'Morpheus' vermute.
      Und um nochmal auf das von dir zitierte zurückzukommen...
      Als ich 'damals' im Forum des 'Q-Basic Cafe' unterwegs war, hab ich mir uA sogenannte 'Kochbücher' runtergeladen, die im Grunde ein Sammelsurium an 'Fingerübungen' und 'Alltags-Routinen' darstellten wie zB. das '99 Bottles of Beer' (glaub ich hieß das).
      Und ich versuche hier nur Etwas anzustoßen, falls Jemand mitliest, und versteht was ich meine, und dir damit hilft,
      weil ich denke das es doch heute Etwas gleiches Derart geben *_'muss'_* . . . !?!
      Auf 'GitHub' zB. ... ?
      Gruß

  • @AndreasGosch
    @AndreasGosch 11 місяців тому +2

    Moin, danke für das Video. Das geht alles schon mal in die richtige Richtung.
    Auf meinem Wunschzettel wäre aber, dass die Modelle Zugriff auf das Internet hätten, um aktuelle Recherchen durchzuführen. Genau, dass sie sich weiter personalisieren lassen. Beispiel ich wäre Hobbykoch. Dass ich die AI fragen kann welches Gemüse hat Saison, durchforste meine Umgebung nach Angeboten. Erstelle mit mir einen Ernährungsplan*** nach meinen Wünschen. Schreibe mir einen Einkaufszettel und so weiter…. Ich denke das wird früher oder später kommen.
    *** Ich füttere ihn vorher mit Informationen, wie ich bin Diabetiker, Laktoseintoleranz oder welche Lebensmittel ich nicht mag

  • @echtertill
    @echtertill 11 місяців тому +2

    0:33 Wenn sogar Google Schiss vor Open Source hat, ist das super... Hoffentlich wird irgendwann der Großteil der Software Open Source sein, damit man nicht mehr von großen Konzernen abhängig ist...

    • @Tudas
      @Tudas 11 місяців тому +1

      Das wäre ja schrecklich für den normalen Markt von unwissenden Leuten. Open Source klingt erstmal immer so als wäre es sicher für viele, aber gerade das ein oder andere kleine Projekt mag sich das zu nutzen machen und Schadsoftware so verbreiten, weil man denkt ja "Open Source, andere Leute überprüfen das schon!"

    • @Tri-Technology
      @Tri-Technology 11 місяців тому

      ​@@Tudas Und Support von Firmen ist in der Regel besser bei Problemen. Dafür gibt es im Open Source Bereich manchmal schneller gewünschte Features.

  • @benherbst3620
    @benherbst3620 11 місяців тому +1

    4:47 Kleiner Fehler im ton, sonst sehr gutes Video, finde die KI sachen sehr interessant

  • @raphaelsteffes4492
    @raphaelsteffes4492 9 місяців тому

    Kannst du ein Video zum thema Traing machen? ich Würde gerne LLama 2 7B auf Klingonisch trainieren

  • @danielhofmann7126
    @danielhofmann7126 11 місяців тому

    Die API ist bei der Pro-Variante von GPT4 inklusive.

  • @user-xu3so2ug1f
    @user-xu3so2ug1f 11 місяців тому +1

    18:45 naja dafür auch den vorteil das zensur nicht mehr so leicht umzusetzen (zb kann china leicht openai dazu zwingen das die chinesische version sagt das es keine menschenrechtsverstöße in china gibt usw.)

    • @TT-pi8ww
      @TT-pi8ww 11 місяців тому

      In China sind alle westlichen Chat/Social-Media Platformen komplett verboten. Genauso wie in Russland. OpenAI kann von deren normalen Einwohner garantiert nicht genutzt werden.

  • @mariof.1941
    @mariof.1941 11 місяців тому

    über Azure bekommst den GPT4 key schneller... kann ich da auch Azure OpenAi nutzen ;-) ist eigentlich fast genauso nur muss man den API_Key Azure_OpenAI_ApiKey nennen

  • @r.a.70
    @r.a.70 11 місяців тому +5

    Wie kann man GPT4All mit eigenen Daten Futtern bzw. ein eigenes Modell dafür programmieren? Welche Schnittstellen gibt es dafür?

    • @sebastiank686
      @sebastiank686 11 місяців тому +1

      man kann im programm ein verzeichniss angeben und der kann dann auf die enthaltenen dateien zugreifen. Aus irgendeinem Grund funktioniert das bei mir aber nicht so toll

    • @TheMorpheusTutorials
      @TheMorpheusTutorials  11 місяців тому +2

      Japp, bei mir auch nicht. Ich glaube das ist noch nicht ganz ausgereift. Schauen wir uns asap an

    • @heinzpeterklein9383
      @heinzpeterklein9383 11 місяців тому +1

      Genau. Wie kann man auf Basis bestehender LLMs eine eigene spezialisierte KI trainieren (auch kommerziell nutzbar!). Also ein konkretes Beispiel würde mich interessieren. Was ist mit wenig Geld möglich!?

  • @Splicher
    @Splicher 11 місяців тому

    Jahre stimmt schon. Ich hab irgendwie 2021 nen Testzugang zu ner ChatKI bekommen. K.p. obs von OpenAI war oder nicht. Funktionierte auch damals schon recht ok, aber schlechter als die LLMs in GPT4ALL. Denke mal in nem halben Jahr hat die OpenSource Szene ChatGPT überholt

    • @Tudas
      @Tudas 11 місяців тому +1

      Sehr unwahrscheinlich, dass da OpenAI überholt wird.

  • @heyho130
    @heyho130 10 місяців тому +1

    GPT 4 LIVE ❤😅

  • @xxxxTripplexxxx
    @xxxxTripplexxxx 11 місяців тому +2

    Der Vergleich ist aber sowieso nicht gerade fair. Da Chat GPT-3.5 ja über 175 Milliarden Parameter hat und das Snoozy-Modell 13 Milliarden. Aber das Geile ist ja, allein durch Feintuning lässt sich extrem viel Leistung herausholen. Das Ganze wird in den nächsten Monaten und Jahren so geil werden.

  • @lexbach
    @lexbach 11 місяців тому

    Kann ich diese Modelle auch für meine eigene App nutzen? D.h. Meine Apps mit API-Schlüssel von diesen Modellen verbinden?

  • @SchattenZirkus
    @SchattenZirkus 11 місяців тому +1

    Also mich verwirrt der Name OpenAI. Wofür steht das Open ?
    Insgeheim Wünsche ich mir sogar das GPT3-4 auch wie bei Meta… freier wird

  • @t-i-m1673
    @t-i-m1673 11 місяців тому

    Und wie trainiert man jetzt seine eigene ki

  • @easypy
    @easypy 11 місяців тому +1

    Bleibe bei chatgpt 3 erstmal. :D

  • @SilverStar_YT
    @SilverStar_YT 11 місяців тому +1

    Ich fände es schon ganz praktisch, wenn das ganze von meiner Grafikkarte berechnet würde. Oder meinetwegen irgendwie so ein Hybrid-Ding, wenn sowas realisierbar ist, einfach zur Entlastung der CPU. Auch, wenn das ein Unter-/Mittelklassemodell der letzten Generation mit ganzen 8GB ist, hätte ich da trotzdem mehr Hoffnung, was die Leistung betrifft. Am Ende könnte der System-RAM mit 32GB dann zusätzlich genutzt werden, falls der Grafikspeicher nicht mehr ausreichen würde. Auch, wenn der wahrscheinlich der größte Schrott ist, den man kriegen kann (hab damals beim Zusammenbau als Laie halt nur Crucial, wegen guter Erfahrungen, und große Kapazität im Kopf gehabt und mich nicht groß weiter informiert), wären zumindest große Teile der Berechnung auf die Grafikkarte ausgelagert. Und wenn ich sehe, wie allein dieser GPT4All-Hub beim Verschieben ruckelt, als wäre ich mit Windows 10 auf einem Rechner aus 2010 unterwegs, habe ich für die Gen 10 Midrange CPU nicht mehr allzu große Hoffnung, dass da wirklich was läuft, sobald tatsächliche Leistung gefordert wird.

  • @lucienferenczy4897
    @lucienferenczy4897 11 місяців тому

    Also Vicuna 13B ist momentan das beste model.

  • @XTR734
    @XTR734 11 місяців тому

    Ich bekomme es unter Linux leider nicht installiert😒
    und unter Windows ist es leider kaum nutzbar mit meinen betagten PC

  • @nilszimmermann7102
    @nilszimmermann7102 11 місяців тому +1

    Wie viel CPU hast du auf diesem PC? Ich habe einen 16 GB RAM Laptop und groovy braucht teilweise 25 Minuten für eine Antwort. Danke!

    • @TheMorpheusTutorials
      @TheMorpheusTutorials  11 місяців тому +2

      Hab ne 5950x, 64gb RAM

    • @R1D3R_
      @R1D3R_ 11 місяців тому +1

      Dankeschön

    • @nilszimmermann7102
      @nilszimmermann7102 11 місяців тому +1

      @@TheMorpheusTutorials Danke!

    • @heinzpeterklein9383
      @heinzpeterklein9383 11 місяців тому +1

      😂, extra einen up to 5GHz 12700H /12900H CPU, 64GB RAM … Laptop gekauft. Dann sind die Antwortzeiten vergleichbar mit ChatGPT.

    • @heinzpeterklein9383
      @heinzpeterklein9383 11 місяців тому +1

      Stimmt, bestimmt 😂

  • @chatgpt4free
    @chatgpt4free 11 місяців тому

    Ich hab GPT4All ausprobiert und installiert. Ging soweit alles, aber dann ist mir bei einem Update fast der ganze Mac abgeschmiert und ich musste das Ding wieder runterwerfen. Schade eigentlich war aber ein schwerwiegender Bug, dessen Risiko ich nicht eingehen wollte.

  • @stephankempa6914
    @stephankempa6914 11 місяців тому

    Kannst du nicht mal ein Video machen, das zeigt, wie man ein LLM einigermassen schnell auf einem Raspberry zum laufen bekommt? Die ganzen Dinge, die zur Zeit rauskommen, brauchen trotzdem schon hefftige Hardware. Ein 7b model braucht auf meiner alten Kiste schon fast 1 Minute zum antworten. Das Ziel wäre kleine Hardware, aber trotzdem lokale model, die auch funzen.

    • @Tri-Technology
      @Tri-Technology 11 місяців тому

      Derzeit braucht das einfach zu viel Rechenleistung, wenn man vernünftige Antworten haben will oder eben extrem ausgefeilte Software, die sowas auf kleinen Geräten möglich macht aber dafür bezahlt man derzeit halt noch gut Geld bzw. behalten die großen Firmen für sich.

  • @MrAli-dx9tb
    @MrAli-dx9tb 11 місяців тому

    GPT 4 funktioniert bei mir irgendwie nicht gibt nur error

  • @Velioris
    @Velioris 6 місяців тому

    😁

  • @blank_35m
    @blank_35m 11 місяців тому

    gibt das schon als docker version ?

    • @TheMorpheusTutorials
      @TheMorpheusTutorials  11 місяців тому +1

      Leider nein 🥲 aber Llama gab's als docker. Ist etwas weiter vorne in der Playlist

    • @blank_35m
      @blank_35m 11 місяців тому

      @@TheMorpheusTutorials ja hab ich schon geteset lauft nicht auf meine synology leider

  • @T_aus_B_an_der_Spree
    @T_aus_B_an_der_Spree 11 місяців тому

    Das mit dem Key verstehe ich nicht. Das ging bei mir sofort. Habe das mal für AgentGPT eingerichtet. Aber überzeugt hat mich was da raus gekommen ist mal so überhaupt gar nicht

  • @olis936
    @olis936 9 місяців тому

    "OPENSOURCE" 😂

  • @user-xu3so2ug1f
    @user-xu3so2ug1f 11 місяців тому +1

    btw im hintergrund dieser linkedin tab nervt ein wenig weil der die ganze zeit den titel ändert xD

  • @musil63
    @musil63 10 місяців тому

    Ich rate dazu jedes Model mal zu laden und dann zu schauen wie schnell sie antworten und vor allen Dingen wie umfangreich die Antwort ist und wieviel von dem Geschwafel auch noch verwendbar ist. Was bringt einen der ganze zensierte Käse ? Ja nix. Bei den Tests auf meinen eher durchnschittlichen Rechner, Lenovo ThinkStation P500 hatte ich da die besten Erlebnisse mit den Modellen "nous-gpt4-vicuna-13b" und "vicuna-13b-1.1-q4_2". Inzwischen gibt es auch FreedomGPT mit den Modellen LLAMA und ALPACA. Aber so richtig alltagsfähig kann man noch nichts von den GPT Desktop Versionen bezeichnet. Am meißten stinkt mir, das man das belehrende Gelaber nicht abschalten kann. Das ist ungefähr so sinnvoll als wenn man vor der Benutzung einer Flachzange die allgemeinen Geschäftsbedingungen durchlesen muss. Es gibr eine Gesetzeslage. Also was soll der Käse mit den ständigen Belehrungen dann ?

  • @ORDER1510
    @ORDER1510 11 місяців тому

    Die Schwarminteligenz der Gommunitys ist unschlagbar, hädd i x8

  • @r.a.70
    @r.a.70 11 місяців тому

    Mich würde sehr interessieren, wie ich GPT4All mit eigenen Daten futtern kann, damit es GPT4All aus diesen Daten lernt. Geht das überhaupt oder muss man dafür programmieren? Wenn ja, wie kann man so ein Modell programmieren? Vielen lieben Dank im Voraus für die Antworten.

  • @creytax9802
    @creytax9802 11 місяців тому +1

    Lol hab nach 15 Sekunden das Video gestoppt, um diesen Kommentar zu verfassen, weil mich der Einspieler abgeholt hat! :D

  • @karisch8472
    @karisch8472 11 місяців тому

    Wird GPT4all auch von euch aufm PC geblockt ? Win 10

    • @linux292
      @linux292 11 місяців тому +1

      Nö. Tuxedo OS.

  • @integeroverflowexception
    @integeroverflowexception 11 місяців тому +1

    418 I'm a teapot

  • @TT-pi8ww
    @TT-pi8ww 11 місяців тому

    ist das eigentlich Zufall das du hier oft die gleichen Themen behandelst wie Keno von c't3003, oder arbeitet ihr irgendwie zusammen?

    • @TheMorpheusTutorials
      @TheMorpheusTutorials  11 місяців тому +1

      Tatsächlich sind das Themen, die ihr bei mir angefragt habt 😅

  • @RainerK.
    @RainerK. 11 місяців тому

    Da sind einige Sprünge im Ton. War das so gewollt? :D InstALLA klingt schrecklich. Es heisst InstOHLER.

  • @azmo_
    @azmo_ 11 місяців тому

    Was ist sein "anderer" Kanal?

    • @TheMorpheusTutorials
      @TheMorpheusTutorials  11 місяців тому

      In der Beschreibung ist Bio Link verlinkt, da sind alle 😊

  • @lucamaximilian632
    @lucamaximilian632 11 місяців тому

    Hallo Morpheus, ich habe soeben Chatgpt gefragt, wer denn the morpheus tutorials ist und bekam dabei die antwort, dass es sich um einen UA-cam Kanal von Florian Dalwigk handelt. Umgekehrt wenn ich nach florian dalwigk frage wird ueber den kanal the morpheus tutorials berichtet. Waere vielleicht auch interessant fuer ein video und ein gutes Beispiel dafuer, das AIs auch falschliegen koennen. Du koenntest auch analysieren warum chatgpt diesen fehler macht

  • @Game_Lab_Germany
    @Game_Lab_Germany 11 місяців тому

    Erstmal OpenSource tätowieren lassen ö.ö

  • @user-ox7lg4tp9s
    @user-ox7lg4tp9s 11 місяців тому

    ·

  • @Sapoinho
    @Sapoinho 11 місяців тому

    I don't know why, anyway, improvement .... Sprich englisch oder deutsch, entscheide dich und entspanne dich. Zur Sache: GPT4all ist noch Welten entfernt von der Qualität, die ChatGPT liefert. Die meisten Modelle sind nicht brauchbar, man braucht viel Geduld, bekommt immer wieder gar nichts oder Hallos zurück. Snoozy oder Vicuna. B. sind zwar beeindruckend aber nicht vergleichbar mit ChatGPT. Das ist eine andere Liga, du implizierst mit dem Clickbait-Titel, dass GPT4all mit seinen Modellen an ChatGPT herankommt. Dem ist definitiv noch nicht so.

  • @ismbeatz
    @ismbeatz 11 місяців тому

    nicht mal annähernd kann gpt4all mithalten

  • @milesmules
    @milesmules 11 місяців тому

    tf this guy talking about😂

  • @arturschulz6190
    @arturschulz6190 11 місяців тому

    Was los, Krise? Burnout? Machst nen bisel irren eindruck😅
    Chill mal, alles wird gut😄

    • @Tudas
      @Tudas 11 місяців тому

      ?xd

  • @tnaplastic2182
    @tnaplastic2182 11 місяців тому

    "ein starkes Improvement"......... 🙄

  • @tnaplastic2182
    @tnaplastic2182 11 місяців тому

    Du solltest German learnen...!😮

    • @TheMorpheusTutorials
      @TheMorpheusTutorials  11 місяців тому +1

      Na wenn das dein größtes Problem ist, ist ja gut 😊👍

    • @tnaplastic2182
      @tnaplastic2182 11 місяців тому +1

      @@TheMorpheusTutorials Come on... Findest du nicht, dass du manchmal Englisch "overused"? Erinnert mich irgendwie an Otto und Englisch für Fortgeschrittene (English for Runaways), ohne es böse zu meinen...!

    • @TheMorpheusTutorials
      @TheMorpheusTutorials  11 місяців тому +2

      Stimmt schon, aber das passiert vermutlich, wenn man 80% Englisch liest oder spricht. Ich finde es bei mir nicht so übertrieben, aber ich versuche drauf zu achten

    • @tnaplastic2182
      @tnaplastic2182 11 місяців тому

      @@TheMorpheusTutorials Ich kenne das Problem. Ich baue seit über 20 Jahren die Homebrew-Szene mit auf (speziell PS2-Sparte)... Da das eine internationale Kooperation ist, ist der Kontakt da auch Englisch.
      Ich finde es sehr gut, dass du versuchen möchtest etwas darauf zu achten.
      Die heutige Generation (Englisch gelesen xD) versteht das schon, aber da gibt es noch old-schooler und dann auch schlicht und einfach alte Leute... Alte Noobs sozusagen...!

    • @beka7989
      @beka7989 11 місяців тому

      ​​@@tnaplastic2182 nein das hat weniger mit Oldschool etc. zu tun, sondern mehr mit Kulturgut. Es gibt Wörter wie Internet, die sich halt durchgesetzt haben, aber es gibt noch Wörter in den verschiedenen Sprachen, welche nicht obligatory mit englichen Begriffen unnötig ersetzt werden brauchen, total unnecessary! Das Deutsch, aber auch jede andere Sprache mit englichen Begriffen verunstlatet werden sollte.
      Speak Englisch, ose fol tjetër gjuh si për shembull shqip, hablamos en espanol, no problemo, aber bitte nicht Sprachen mit Englisch mehr mixen als nötig. Meine Mutter- und Vatersprache sind albanisch, trotzdem muss ich zusehen wie "ur-Deutsche" die eigene Sprache freiwillig aus Lust daran "verenglischen". Da hätte ich mir Deutsch lernen sparen können, gleich englisch, in Mülleimer mit Goethes Sprache. Es gibt auf jeden Fall Wörter, welche gerne genutzt werden, die nicht gut übersetzbar sind, cool, kosher, halal, haram, mashallah, sind ins deutsche schlecht übersetzbar, aber manche Begriffe haben sehr gute deutsche Pandants, da kommen sich manche Online-Aktivisten, aber auch Lehrer, Manager, Politiker bis zum Kanzler womöglich "cool" vor statt Heimbüro "homeoffice" zu sagen (muss das h groß geschrieben werden oher breibt es wie im englischen kleines h?). Oder statt Arbeitamt "Jobcenter", und mehr Verunstaltungen der Sprache, die sogar von höchsten Ämtern betrieben wird...
      Besonders nervig wird das ganze, den nicht Deutschen für Aufenthalt, Einbürgerung, etc. Deutsche Sprache aufzuzwingen, aber Politiker sagen mit gewissem Stolz "homeoffice", da könnt ich solchen hypocrite Politikern ein Bürotisch in die amerikanische Fresse klatschen. Totengräber sind weniger die Zuwanderer, wir scheinen Goethes Erbe mehr zu Beschützen als die Eliten des Landes... übrigens habe ich freiwillig in einer AG im Gymnasium Sütterlin lesen und schreiben gelernt, 90% der Deutschen:"was ist das denn?" 😂

  • @leweed3049
    @leweed3049 11 місяців тому +1

    ich der einfach den gpt4 api key schon seit 1 Monat hat

  • @PhillipAmthor
    @PhillipAmthor 11 місяців тому +2

    O P E N S A U C E
    P
    E
    N
    S
    A
    U
    C
    E