Vielen Dank für das Video! Ich hätte ein paar Fragen und bin dankbar für eine Antwort! 1) deine Wissensdateien sind immer im Format Frage/Antwort. Generell wäre es ja aber auch möglich, einen Fließtext zu verwenden. Hätte das einen größeren Nachteil wenn ich letzteres mache, oder ist es sinnvoller, die in Q/A Format umzuwandeln. 2) in einem anderen Tutorial hast du gezeigt, wie man ChatGPT mit eigenem wissen füttern durch Vektorisierung einfügen kann. Ist das auch RAG oder wie grenzt dich das genau ab? Ich verstehe, dass in dem Video dargestelltes REG natürlich Fortschrittlicher ist.
Cooles video! Weißt du ob man beim Parent Doc Retriever den store auch persostent speichern kann? Damit man den retriever.add_documents Befehl nicht jedes mal ausführen muss?
Theoretisch geht das schon, allerdings ist das bislang nicht in Langchain drin. Ich hab selbst einen DocStore auf Basis von Postgres geschrieben (weil es eben nix gab), allerdings für die Firma wo ich arbeite. Deswegen ist der Code leider proprietär.
Alles klar, habe es selbst auch umständlich und nicht allzu elegant umgesetzt 😄 meiner Meinung nach die beste Methode um längere Passagen aus Pdfs abzufragen
@@maxlgemeinderat9202 Wenn ich es nicht besser wüsste würde ich tippen wir sind Kollegen. Haben es auch für PDFs gemacht, weil die Dokumente schlicht das Context Window des LLMs gesprengt haben
Ein großartiges Video!!
Vielen Dank für das Video!
Ich hätte ein paar Fragen und bin dankbar für eine Antwort!
1) deine Wissensdateien sind immer im Format Frage/Antwort. Generell wäre es ja aber auch möglich, einen Fließtext zu verwenden. Hätte das einen größeren Nachteil wenn ich letzteres mache, oder ist es sinnvoller, die in Q/A Format umzuwandeln.
2) in einem anderen Tutorial hast du gezeigt, wie man ChatGPT mit eigenem wissen füttern durch Vektorisierung einfügen kann. Ist das auch RAG oder wie grenzt dich das genau ab?
Ich verstehe, dass in dem Video dargestelltes REG natürlich Fortschrittlicher ist.
Danke für das Video. Kennst du ein gutes Embedding-Model für die deutsche Sprache (self-hosted)?
Gerne. Leider nicht, sorry. Hat das Ada für dich nicht ausreichend Qualität? Deutsch sollte es eigentlich können
Cooles video! Weißt du ob man beim Parent Doc Retriever den store auch persostent speichern kann? Damit man den retriever.add_documents Befehl nicht jedes mal ausführen muss?
Theoretisch geht das schon, allerdings ist das bislang nicht in Langchain drin. Ich hab selbst einen DocStore auf Basis von Postgres geschrieben (weil es eben nix gab), allerdings für die Firma wo ich arbeite. Deswegen ist der Code leider proprietär.
Alles klar, habe es selbst auch umständlich und nicht allzu elegant umgesetzt 😄 meiner Meinung nach die beste Methode um längere Passagen aus Pdfs abzufragen
@@maxlgemeinderat9202 Wenn ich es nicht besser wüsste würde ich tippen wir sind Kollegen. Haben es auch für PDFs gemacht, weil die Dokumente schlicht das Context Window des LLMs gesprengt haben