- 92
- 60 656
Bastian Strauss
Germany
Приєднався 4 вер 2006
Beiträge über die Digitalisierung im Handwerk und zum Thema SmartHome im Selbstversuch
Automatisierung von Webinhalten und Wissensspeicherung 🤖
In diesem Video präsentiere ich dir die Funktionsweise meines innovativen Content-Speichers, der Ideen und Anwendungen aus Webseiten oder UA-cam-Videos extrahiert, bewertet und sicher speichert.
Mein System basiert auf einer Make-Automation, die verschiedene Stränge für UA-cam, Webseiten, Bilder und Links nutzt. Mit Hilfe einer KI werden UA-cam-Transkripte heruntergeladen und analysiert. Python-Skripte und Proxys kommen zum Einsatz, um die Transkripte zu sichern, wobei eine Sperrung der IP-Adresse möglich ist.
Die extrahierten Inhalte werden in einer Datenbank gespeichert, die verschiedene Felder wie Titel, Zusammenfassung, Bewertung und Quality-Score enthält. Um dir die Funktionalität meines Systems zu demonstrieren, führe ich dir anhand von Beispielen mit UA-cam-Videos und Webseiten den Prozess des Extrahierens, Bewertens und Speicherns vor.
Ich überprüfe die Funktionalität des Systems anhand von abgeschlossenen Aktionen wie dem Herunterladen von Transkripten und der Bewertung von Inhalten.
#ContentSpeicher #MakeAutomation #WebContent #UA-camTranskripte #KI
Mein System basiert auf einer Make-Automation, die verschiedene Stränge für UA-cam, Webseiten, Bilder und Links nutzt. Mit Hilfe einer KI werden UA-cam-Transkripte heruntergeladen und analysiert. Python-Skripte und Proxys kommen zum Einsatz, um die Transkripte zu sichern, wobei eine Sperrung der IP-Adresse möglich ist.
Die extrahierten Inhalte werden in einer Datenbank gespeichert, die verschiedene Felder wie Titel, Zusammenfassung, Bewertung und Quality-Score enthält. Um dir die Funktionalität meines Systems zu demonstrieren, führe ich dir anhand von Beispielen mit UA-cam-Videos und Webseiten den Prozess des Extrahierens, Bewertens und Speicherns vor.
Ich überprüfe die Funktionalität des Systems anhand von abgeschlossenen Aktionen wie dem Herunterladen von Transkripten und der Bewertung von Inhalten.
#ContentSpeicher #MakeAutomation #WebContent #UA-camTranskripte #KI
Переглядів: 343
Відео
Tutorial Update: Flowise, Make und Airtable
Переглядів 2073 місяці тому
Tauche ein in die Welt der Datenbankabfragen und entdecke, wie du durch kreative Problembehandlung und den cleveren Einsatz von Technologie auch komplexe Anfragen vereinfachen kannst. In diesem packenden Video-Tutorial begleitest du mich bei der Bewältigung von Herausforderungen, die bei der Abfrage spezifischer Produktdetails, wie roten Fliesen unterschiedlicher Größe, auftreten. Erlebe, wie d...
Tutorial: A simple database query with Flowise, Make and Airtable.
Переглядів 4113 місяці тому
Entdecke in diesem Video, wie du die Macht von Flowise, Make und Airtable kombinierst, um Datenbankabfragen mühelos zu bewältigen! Ich zeige dir, wie du ohne SQL-Kenntnisse externe Datenquellen effektiv nutzen kannst. Erlebe, wie eine clevere Integration dieser Tools nicht nur Zeit spart, sondern auch die Art und Weise revolutioniert, wie wir mit Datenbanken interagieren. Mein Idee führt dich S...
Webhooks und Kurzbefehle: Einführung in die Welt der Automation. Vom Beginner zum Experten
Переглядів 2903 місяці тому
Tauche mit Bastian in die spannende Welt der Automationen ein und lerne, wie du mit Make, Webhooks und Kurzbefehlen im Apple-Ökosystem effiziente Workflows schaffst. Dieses praxisorientierte Tutorial bietet dir einen umfassenden Workshop, der sowohl Einsteiger als auch Fortgeschrittene anspricht. Erlebe, wie Bastian Schritt für Schritt die Erstellung eines Webhooks demonstriert, das Testen mit ...
Mixture of Agent wit Flowise: Tutorial
Переглядів 4004 місяці тому
Tauche ein in die Welt der digitalen Agenten und entdecke, wie du mit dem NoCode Tool FloWise dein eigenes 'Mixture of Agents' Projekt erschaffst! In diesem Video zeige ich dir Schritt für Schritt, wie du ein komplexes System aus mehreren Agenten aufbaust und optimierst. Erfahre, wie ich mein initiales Setup verbessert habe, um den Workflow und das Reasoning entscheidend zu verbessern. Außerdem...
Mixture of Agents (MoA) with no-code: Flowise major update and the power of sequential agents
Переглядів 4204 місяці тому
Entdecke die Zukunft des No-Code Sektors mit dem neuesten Major Update von Flowise! Dieser innovative Durchbruch ermöglicht die nahtlose Integration sequentieller Agents, was die Art und Weise, wie wir mit Large Language Models arbeiten, grundlegend verändern kann. Mit der benutzerfreundlichen Oberfläche von Flow Wise kannst du nun noch flexibler und effizienter arbeiten, ohne auch nur eine Zei...
Flowise with Agentic Workflows
Переглядів 8674 місяці тому
In diesem Video tauchen wir ein in die Welt von Flowise 2.0.1, der führenden No-Code-Plattform für Large Language Models. Wir erkunden die neuesten Verbesserungen mit einem beeindruckenden Agentic Workflows. Diese ermöglichen es uns, komplexe Workflows mit mehreren Agenten und Schleifen zu erstellen, was zu einem einzigartigen Zusammenspiel zwischen einem Writer-Agenten und einem Teacher-Agente...
Innovative content storage and dynamic AI search
Переглядів 2554 місяці тому
Entdecke in diesem Video das faszinierende Update zu meinem 'Straußlischen Wissen'! Ich präsentiere dir effiziente Methoden der Content-Speicherung, von UA-cam-Videos über Webseiten bis hin zu Fotos und Audioaufnahmen. Erfahre, wie ich meinen Wissensspeicher mit einer KI verknüpft habe, um Inhalte wie einen Artikel zum Thema 'RAG' schnell wiederzufinden. Tauche ein in meine Datenbank, mein pers...
Revolutionizing content generation: The RAG fusion method
Переглядів 2814 місяці тому
In dieser Folge entführe ich dich erneut in die faszinierende Welt der RAG Retrieval Augment Generation! Nachdem wir verschiedene Möglichkeiten erkundet haben, Content in das Context Window der KI einzubinden, präsentiere ich dir heute ein aufregendes Update. Entdecke, wie ich einen Bot entwickelt habe, der die Qualität der Outputs verschiedener RAG-Systeme bewertet und die beste Antwort anhand...
The content management revolution through AI
Переглядів 6595 місяців тому
In diesem Video tauchen wir in die faszinierende Welt der Künstlichen Intelligenz (KI) ein und zeigen dir, wie sie unser tägliches Arbeiten revolutioniert. Du erfährst, wie ich mit Hilfe von KI meine gesammelten Inhalte aus verschiedenen Quellen wie UA-cam-Videos, Fotos und Webseiten effizient organisiere und bewertet. Früher war das Wiederfinden spezieller Inhalte eine Herausforderung, doch da...
Teil 5/5: FINALE! Kann RAG kochen? Mit Flowise, Make und Perplexity KI-Ergebnisse testen!
Переглядів 3306 місяців тому
Teil 5 von 5: Finale, Finale! Nun habe ich 4 verschiedene RAG (Retrieval-Augmented Generation) Systeme ausprobiert. Aber wie kann ich jetzt die Qualität der Ergebnisse beurteilen? Wie ich mir mit Hilfe von Perplexity, Flowise und MAKE einen Bewertungsroboter gebaut habe, der nicht nur die Antwort auf Qualität überprüft, sondern auch begründet, warum die Antwort gut oder schlecht ist und sogar e...
Teil 4/5: Flowise, LangGraph und RAG: Kann mein ToolAgent das Rätsel lösen?
Переглядів 3916 місяців тому
In Teil 4 von 5 über RAG (Retrieval Augmented Generation) habe ich die Nase voll und baue mir meinen eigenen ToolAgent und einen QuestionGenerator in Flowise und verbinde diese dann mit meinem RAG-System. Warum ich das mache. Ich möchte herausfinden, welche Methode den Output für das RAG System verbessert. Dazu verwende ich die Idee von RAG Fusion, aber diesmal ohne RRF (Reciprocal Rank Fusion)...
Teil 3/5: Kann man RAG mit LangGraph auf Flowise bauen? Spoiler: Es ist kompliziert, aber spannend!
Переглядів 2996 місяців тому
Im 3. Teil meiner 5-teiligen Serie über RAG (Retrieval Augmented Generation) versuche ich ein RAG-System mit Hilfe von LangGraph aufzubauen. Dazu verwende ich einen KI-Agenten für das RAG-System, einen KI-Agenten für die Erweiterung der Frage (Questiongenerator), einen Support-Agenten für die Beantwortung der Frage und einen Qualitätsagenten, der die Ausgabe bewerten soll. Dies ist das erste Pr...
Teil 2/5: Wie kann ich mit Reciprocal Rank Fusion meine RAG Suche in Flowise verbessern
Переглядів 3346 місяців тому
Der zweite von fünf Teilen einer Videoreihe über die RAG-Technik (retrieval augmented generation) im Einsatz mit einer LLM-KI. Wie kann die Reciprocal Rank Fusion Technik verwendet werden, um die Ergebnisse der Vektorsuche zu verbessern? Im letzten Teil werten wir alles gemeinsam aus.
Teil 1/5: Was ist RAG? Kann man das essen? Was hat das mit KI zu tun? AddOn: Umsetzung mit Flowise
Переглядів 1,7 тис.6 місяців тому
Der erste von fünf Teilen einer Videoreihe über die RAG-Technik (Retrieval Augmented Generation) in der Anwendung mit einer LLM KI. Ich nehme euch mit auf eine Reise durch RAG. Was ist RAG? Wie funktioniert es? Wie kann ich den Output verbessern und wie kann ich den Output messen? Ich bin gespannt, ob ihr auch auf weitere Ideen kommt.
Ollama and anythingLLM: A practical guide
Переглядів 4,3 тис.7 місяців тому
Ollama and anythingLLM: A practical guide
Technologies in the paint shop: a field report with Symcon
Переглядів 1097 місяців тому
Technologies in the paint shop: a field report with Symcon
Innovation without code: Create your own apps with Make.com
Переглядів 3148 місяців тому
Innovation without code: Create your own apps with Make.com
The revolution in response times with LPU technology for large language models
Переглядів 1819 місяців тому
The revolution in response times with LPU technology for large language models
Mistral: The new language miracle of AI technology
Переглядів 1 тис.9 місяців тому
Mistral: The new language miracle of AI technology
Die Revolutionierung von Datenzugriff und Knowledge Sharing durch RAG-Technologie
Переглядів 3499 місяців тому
Die Revolutionierung von Datenzugriff und Knowledge Sharing durch RAG-Technologie
AI connection of local databases: a practical solution
Переглядів 4019 місяців тому
AI connection of local databases: a practical solution
How to build an API in MAKE: A tutorial for low-code development
Переглядів 56510 місяців тому
How to build an API in MAKE: A tutorial for low-code development
Developer adventure: Rebuilding the Google Gemini AI system
Переглядів 11710 місяців тому
Developer adventure: Rebuilding the Google Gemini AI system
Automation with WordPress and your CRM system: a practical guide
Переглядів 19511 місяців тому
Automation with WordPress and your CRM system: a practical guide
Automated service vehicle routing with the help of an AI-controlled assistant
Переглядів 10211 місяців тому
Automated service vehicle routing with the help of an AI-controlled assistant
Browser-based data extraction and automation with AI
Переглядів 27811 місяців тому
Browser-based data extraction and automation with AI
The latest progress with our career bot
Переглядів 7111 місяців тому
The latest progress with our career bot
New approaches to job placement: AI-based job placement
Переглядів 55Рік тому
New approaches to job placement: AI-based job placement
Discoveries and developments in the AI world: OpenAI's GPT Assistants
Переглядів 139Рік тому
Discoveries and developments in the AI world: OpenAI's GPT Assistants
super gut erklärt, danke
Hallo, könnten wir in Kontakt treten?
Unfassbar guter Content den du hier produzierst! Sehr nachvollziehbar und inspirierend! Bin sehr gespannt, welche KI Themen die kommenden Monate noch auf uns zukommen :)
Sehr interessant! Theoretisch könnte man doch den Bewetungs Prompt als weiteren Agent hinzufügen der immer wieder die Note auswertet und die Bewertung in einem neuen loop mit einfließen lässt 😅
Ja eine sehr gute Idee. Der Bewertungsagent vergibt Schulnoten. Ist sie schlechter als z.B. 3 dann zurück an den Writer inkl. einem Kommentar was schlecht ist! Evtl könnten man dem Writer auch Perplexity an die Hand geben, um im Internet nach weiterem Input zu suchen!
@@bastianstrauss Ja mega Idee! Ich werde es mal testen
Danke
Bitte
Wo finde ich das Programm "Alle Kurzbefehle" bei 1:52 auf MacOS?
Suche nach dem Programm „Kurzbefehle“
du bist gut
i do my very best
Hallo du hast das sehr gut erklärt. Kannst du AnythingLLM auch in deutsch einstellen?
Ja, es geht unter Einstellungen -> Erscheinungsbild -> Display Language
Kannst du mal etwas zu Danswer machen? Hab deine DIY Videos zum RAG gesehen und mich würde interessieren, ob für "einfache" fragen an Dokumente / Notes / etc. dein System oder Danswer überlegen ist In Danswer importest du einfach deine Daten odeer lässt sie alternativ über einen Connector importen und Danswer nutzt dann die ausgewählte Datenquelle (oder Quellen) im Chatpot mit dem LLM der Wahl. Also eine (fast) ready to run Lösung fürs RAG
Hi, das werde ich mal testen. Aber aktuell fehlt mir schlicht die Zeit. Aber Danswer steht (dank dir) auf meiner BucketList
Tja, einfach mal geil!!!
coole idee!
nichts gegen Anythinkllm aber ich finde es unheimlich Lahm im gegensatz zu Openwebui. ich kann mir nicht helfen aber anythinkLLm scheint die GPU im Docker unter windows nicht zu nutzen was natürlich 90% perfomance kostet gegenüber Openwebui
Cool, danke für deinen Bericht. Ich habe Anything LLM nativ auf dem MAC installiert. Aber kurz nachgefragt: AnythingLLM und auch OpenWebUI benötigen doch nicht die GPU, sondern Ollama, oder sehe ich das falsch! Beide Programme nutzen doch die API davon. Maximal beim Embedding!
Hallo Bastian, ich finde deine Videos klasse. Was mir gefällt ist dieser iterative Ansatz der sehr gut nachvollzogen werden kann. Mach weiter so.
Coole Sache, habe selbst Monate gebraucht, um die korrekten Kapitel zu finden, auf Basis der die KI fundierte Antworten geben kann. Sehr spannendes Thema. Pinecone Vektor Datenbanken über eine Knowledge Base und chunking. Mit Airtable, kann man das nicht direkt nutzen, muss dann erst über ein Embedding Model in Vektoren umgewandelt werden und die wiederum werden dann in der Vektordatenbank gespeichert. Durch den Abgleich der query, also der User Anfrage wird dann geprüft welche Inhalte ähnlich sind. Die Ähnlichkeit wird über einen score beurteilt. Ein hoher Score kann schließlich genutzt werden, um die Daten über ein LLM und den Prompt individuell zu verarbeiten.
Macht schon laune oder. Mit Airtable habe ich auch etwas gebaut. Schau dir mal meine beiden letzten Videos an. Hybrid mit RAG, CRAG und Datenbank getrieben wäre eine mega Sache!
Tolles Video, herzlichen Dank!
Sehr gerne!
Könnte man das nicht einfacher und in einem in n8n bauen?
Also n8n ist ja ein OpenSource Pendant zu Make. Würde also auch gehen. Du könntest ja auch eine KI direkt per SQL auf deine DB zugreifen lassen. Mir ging es aber darum mit Flowise UND Make (oder n8n) quais jeden REST Endpoint anzusprechen. OK: Flowise kan mit dem CustomTool direkt die EndPoints ansprechen. Aber hier wird es dann schon schwieriger die EndPoints gerade mit der Authentifizierung zu nutzen wie zum Beispiel Google Sheets etc. Da ist der "Umweg" über Make/Zapier/n8n einfach einfacher :-D
Wieso bin ich eigentlich anscheinend der einzige Deutsche, der will, dass seine KI mit ihm SPRICHT? Sprache. Reden. Audio. Akustisch. Und das bitte in natürlichem Deutsch, nicht wie mein Navi von vor 20 Jahren. Das muss doch möglich sein 🤔
Da bist du nicht der einzige!
Hallo Bastian, ich baue gerade Deinen Make-Workflow nach---- versuche es jedenfalls ;) um zu lernen wie so was geht. Bei 11:25 wird im Router gefiltert nach "3. content". Wo kommt diese Funktion her? Diese wird mir bei Make in der Funktionsauswahl nicht angezeigt, kann nicht ausgewählt werden. Mit was hast Du die Container-Übergabe (ContentSpeicher) gebaut? Du nutzt ja Mac. Was kann man dafür in Windows nutzen? Danke für eine Rückmeldung! Grüße Steve
Hallo @Steve 3.content kommt von meinem Webhook. Ich sende meinem Webhook die URL und den Inhalt. Damit ich eben entsprechend den richtigen Flow auswählen kann. Die Variable bzw. der Inhalt der Variable kommt aus der Shortcut App vom Mac/OSX/iOS und es ist leider so unter Windows nicht verfügbar. Das Prinzip funktioniert aber auch mit GET URLdesWebhooks/?url=hier_dein_youtube_link&content=youtube dann bekommst du in Make die beiden Variablen URL und Inhalt. Ich überlege mir eine kleine Oberfläche auf Basis von Mesop, Taipy oder Streamlit zu bauen und als Docker zur Verfügung zu stellen, dann hättest du die Möglichkeit die Kurzbefehle App nachzubauen. Aber das ist meiner Meinung nach eine der am meisten unterschätzten Apps im Apple-Kosmos. Soll ich mal ein Video zum Thema WebHook / Kurzbefehl / Streamlit / Absicherung Token machen? Gruß Bastian
@@bastianstrauss Danke fürs schnelle Antworten! *Soll ich mal ein Video zum Thema WebHook / Kurzbefehl / Streamlit / Absicherung Token machen?* Ja, das wäre hilfreich, gerade für deine Abonnenten, die neu im Thema Automatisierung sind. Die Workflows hier beginnen j aalle mit Webhook, d.h. wenn da falsche Werte auf den Weg gehen, kommt kein sinnvolles Ergebnis raus. Ich bin jedenfalls mega dankbar für Deine Videos. Besser wie jede KI-Anwenderschulung an der ich bisher teilgenommen hab.
Danke 👍
Gerne
Question: A marble is put in a glass. The glass is then turned upside down and put on a table. Then the glass is picked up and put in a microwave. Where's the marble? Explain your reasoning step by step. Answer: Let's break down the situation step by step: Step 1: Glass with Marble on the Table The marble is initially inside the glass. The glass is placed on the table, which doesn't affect the marble's location. Step 2: Glass Inversion The glass is turned upside down, but the marble remains inside the glass. Since the glass is inverted, the marble is now at the bottom of the glass, but it's still inside the glass. Step 3: Glass Pickup and Microwave The glass is picked up, and the marble is still inside the glass, at the bottom. When the glass is placed in the microwave, the marble is now inside the microwave, still at the bottom of the glass. Conclusion: The marble is inside the microwave, at the bottom of the glass. The key point to note is that the marble remains inside the glass throughout the entire process. The glass is simply moved from one location to another, but the marble stays inside it. Therefore, the marble ends up inside the microwave, still trapped inside the glass. FAIL
Nach ein paar Promptkorrekturen: Let's break down the scenario step by step to determine the marble's location: Step 1: Marble in the glass The marble is initially placed inside the glass. Step 2: Glass turned upside down and put on the table When the glass is turned upside down, the marble will fall out of the glass and onto the table due to gravity. The glass is then placed on the table, but the marble is now on the table, not inside the glass. Step 3: Glass picked up and put in the microwave The glass, now empty, is picked up and placed in the microwave. However, the marble is already on the table, not in the glass. Therefore, the marble is not affected by the glass being placed in the microwave. Conclusion The marble is on the table, not in the microwave or the glass. The glass being placed in the microwave does not affect the marble's location, as it was already on the table when the glass was picked up. Passed!
Question: Write me 10 sentences that end with the word ‘apple’ Answer: The farmer carefully picked a juicy red apple. She took a big bite of the crunchy green apple. The teacher asked the student to bring an apple. The sweet aroma of a ripe apple filled the air apple. The child's favorite snack was a fresh apple. The orchard was famous for its delicious sweet apple. The nutritionist recommended eating an apple a day apple. The teacher used a picture of an apple to teach vocabulary apple. The store sold a variety of fresh organic apple. The autumn season is associated with the harvest of an apple.
Falls jemand eine Testidee hat, wie der Strawberry Test. Gerne in die Kommentare. Ich teste das gerne mal!
Mich würde mal interessieren, ob der Aufbau den Strawberry-Test besteht, er sich selbst korrigiert oder sogar komplett selbst verwirrt
Hi @KevinGeller guter Test: Question: How many "r"s are in the word "strawberry" Antwort: After synthesizing the responses from various open-source models, I can confidently conclude that: The word "strawberry" contains 3 "r" letters. This answer has been carefully evaluated and verified through a precise analysis of the word "strawberry", ensuring the highest level of accuracy and reliability. Im ersten durchlauf kam er auf 2 bei allen Modellen!! Zweiter Durchlauf: 2/3 kamen auf 3 Dritter Durchlauf 2/3 kamen auf 3 (gemini hat verloren)
@@bastianstrauss llama3 hab ich heute aus Spaß schon soweit bekommen, dass es der Meinung war dass strawberry 6 beinhaltet.
😂
Hallo Bastian, vielen Dank für das Video.
Sehr gerne!
Hi Bastian, erstmal ein großes Dankeschön für Deine RAG-Videoreihe! Mega gut erklärt! Du scheinst Dich viel damit zu beschäftigen ;) Was mir noch fehlt ist die Info, wie ich nun das RAG auf eine ganze Reihe von Dokumenten, besser ganze Ordner oder idealerweise alle lokalen Daten, anwenden kann. Und zwar so, dass einerseits gute Abfragen möglich sind (die vom LLM auch richtig verstanden werden) und gleichzeitig die Berechnungszeit nicht zu lang ist. Kann ich also anstatt des Rabbit-docs einfach einen ganzen Ordner (mit mehreren Dateien) zum Retrieval Manager hinzufügen - oder gar alle Dateien auf C:? Das RAG macht doch erst richtig Sinn, wenn ich mit dem Modell in vielen Dateien gleichzeitig durchsuchen kann... - habe ich schon mal etwas zu Thema X geschrieben? welche Dokumente beschäftigen sich mit Thema Y usw. LG Steve
Hi Steve, ja du kannst theoretisch ganze Ordner einlesen lassen. Wichtig ist nur das deine Chunks angepasst auf das Dokument sind. Also ein Mischmasch aus Word, Excel oder PDF ist nicht so förderlich.
@@bastianstrauss Wäre es dann nicht möglich über Flowise meine ganzen lokalen Dateien einzulesen, dann einen Worker zu erstellen, der die eingelesenen Dateien nach Dateiformaten clustert, diese dann in neuen Sub-Ordnern des Retrieval Agenten ablegt und dann dort der Chat mit diesen Dokumentenarten stattfinden kann? Denn sind wir mal ehrlich... eigentlich wollen ja bei RAG die meisten genau das erreichen - Chats mit den gesamten eigenen Dateien - sozusagen KI-gestütztes Wissensmanagement.
@Steve nicht das wir uns falsch verstehen. Du vektorisierst EINMAL deine Dateien. Danach liegen diese in einer Vectordatenbank. Die Originaldateien brauchts du dafür nicht mehr. Du bräuchtest ein Automatisierungsscript, was erkennt wenn deine Dateiablage sich verändert. Dann wird der Prozess erneut angestossen. Ich glaube ich habe deinen UseCase noch ncht verstanden. Wenn du deine lokalen Daten alle cachen willst, brauchst du neben dem Automatisiertungsscript was den Ordner überwacht, auch ein Script, was die Dateiart erkennt und den richtigen Splitter wählt. Das geht über die Funktion von Flowise hinaus!. Hast du ein Typ Dokumente z.B. PDF, kannst du soetwas mit Flowise automatisieren. Lokal kommst du aber um Python oder was anderem aber nicht herum. In der Cloud kannst du soetwas mit OneDrive/GoogleDrive MAKE.com und Flowise mit ein wenig Arbeit sicher lösen! Gemacht habe ich das so aber nicht. Aber die API Endpunkte sind verfügbar. Also ich würde sagen es kommt auf einen versuch an!
Google Drive hat einen Watch Folder Endpunkt. Dieser wird in MAKE angestoßen und veranlasst Flowise alle Dokumente neu zu vektorisieren. Vorhandene werden vorher geskippt und neues oder geändertes aufgenonmmen. Das GEHT! Check mal mein Video: ua-cam.com/video/pl5cg_s5oGg/v-deo.html Dort mache ich so einen neuvektoring mit meiner Airtable DB. Das ist das gleiche Prinzip!
@@bastianstrauss Danke für Deine schnelle Rückmeldung Bastian! Ich hab mir übrigens mal Deine Vita (Deine Webseite) angeschaut. Es ist wirklich krass wie fit Du in diesen Themen hier bist und wie Du Dir das offenbar selbst antrainiert hast. Wow! Mein Usecase ist ein Chat mit meinen eigenen lokal abgelegten Daten (in meinem Fall ca. 20GB aus 20 Jahren im Job). Vieles muss man neu erarbeiten, weil man sich nicht erinnert, wo man eine Datei zu einem spezifischen Thema abgelegt hat. Klar, es gibt Ordner- und Dateibezeichnungen, trotzdem muss man i.d.R. in die jeweilige Datei reinschauen um etwas spezifisches darin zu finden und wiederverwenden zu können. Weniger wichtig ist also, ob oder wie sich der Datenbestand verändert hat, sondern was in diesem Alt-Datenbestand an Informationen enthalten ist. Ich habe verstanden, dass meine Dokumente vektorisiert werden müssen, damit das LLM damit arbeiten kann. Ich muss also schauen, mit welchem Tool ich 20GB automatisiert vektorisieren kann. Dachte, das geht vielleicht am besten mit einem passenden hugging face embedding model - oder ich lade alle Dateien in Google Drive hoch und mache das über den von Dir gezeigten Prozess mit MAKE. Du berätst ja auch das Handwerk... das müsste doch auch für die Handwerksbetriebe ein extrem wertvoller Usecase sein, oder nicht?
Super erklärt! Vielen Dank
Danke fürs Feedback!
Ich bin über mein Abschlussprojekt mit dem Thema Datenauswertung durch generative KIs in Kontakt gekommen. Das war ein leicht frustrierender Lernprozess. 😅 Ergebnis: Selbst ChatGPT macht immer wieder Fehler dabei (fehlende Datensätze oder -items, falsche Berechnungen, logische Fehler wie größer/kleiner etc). Am Ende bin ich zu dem Schluss gekommen, Berechnungen mit Python hardzucoden und daraus ein sprachliches Prompt inkl. grundlegender Dateninterpretation zu erstellen, welcher dann zur weiteren Verarbeitung an das LLM gegeben wird. Dort kann man dann Tipps einholen (zb. "wie steigere ich die Produktivität") oder Mail auf Datengrundlage verfassen zu lassen. Kurzum: LLM heißen nicht ohne Grund SPRACHmodelle 😁
@stahlworte ja selbst in meinem Video siehst du, dass er nicht alle Datensätze einliest. Obwohl alles verfügbar ist. Ich gebe dir zu 100% recht, dass eine REINE Datenauswertung mit LLM nicht das gelbe vom EI ist. Mein Beispiel sollte aber zeigen, dass es grundsätzlich möglich ist, auf "lokale" SQL Daten per KI zuzugreifen ohne gleich das THEMA DSGVO an der Backe zu haben. Verstehe das Video als eine von vielen Möglichkeiten/Ideen Daten an die KI zu bekommen. Die Auswertung solcher Daten ist leider eine ganz andere Geschichte. KI ist nicht gleich Programmcode, sondern Interpretationsspielraum. Und wie du es sehr treffend gesagt hast ein SPRACHmodell!!! 100% Ollama+ PandaAI könnte spannend sein. Hab ich mir aber noch nicht angeschaut.
@@bastianstrauss Das war keine Kritik an deinem Video! Eher eine Ergänzung bzw meine Perspektive auf das grundsätzliche Thema 🙂 Ich habe übrigens ebenfalls eine solche DB-Suche mit (seit gestern) Llama3.1 umgesetzt. Das funktioniert ganz gut und umgeht die Nachteile eines Vektor basierten RAG. Allerdings sind die Daten in meinem Fall auch speziell für das GPT formuliert und es ist ein spezifischer Anwendungsfall. Bei unstrukturierten Daten dürfte man schnell an Limits kommen (zb. zu viele Suchergebnisse für das Kontextfenster, Verwirrung des GPT usw.)
@stahlworte ich habe das überhaupt nicht als Kritik empfunden. Ich finde es toll, wenn wir in den Austausch kommen. Und vielleicht ist meine Lösung auch totaler Quatsch. So kann jetzt jeder für sich entscheiden oder erkennen, was möglich ist und was eben schwierig ist. Also vielen Dank für deinen Beitrag, der das Ganze sehr bereichert!
? flowise? prompts? Tokenizer? Hast du mal Google-NotebookLM gesehen? Das ist RAG pur, man kann dort ohne jegliche airtables&Co seiner eigene Wissensbasis aufbauen und erweitern (bisher keine Videos) - das ist OHNE jegliches Zusammenstöpseln irgendwelcher Software sofort für jedermann benutzbar, inkl. automatisch generierter FAQ u.ä.
Ja, aber nicht automatisierbar! Ich will einfach ein Foto machen oder einen Link kopieren und der Rest soll automatisch laufen. Das macht das NotebookLM nicht! Das ist eher ein Notion auf steroide!
Sehr sehr nice!
Danke! Tutorial dazu?
Du bist irgendwie verrückt! Da brauche ich Wochen für um das nachzubauen!!! Aber Mega geil!
I do my very best 😂
Hallo Bastian, Ich bin zufällig auf deinen Kanal gestoßen und bin begeistert von deinen Inhalten! Deine Videos sind sehr informativ und ich freue mich darauf, noch mehr davon anzuschauen. Als jemand, der sich mit dem Thema gut auskennt, möchte ich einen kleinen Vorschlag machen: Bei komplexen Grafiken (wie Workflows) wäre es hilfreich, wenn du das Tempo etwas drosselst. Deine Sprechgeschwindigkeit finde ich persönlich sehr angenehm, aber in Kombination mit schnellen Bildwechseln kann es manchmal herausfordernd sein, allem zu folgen. Vielen Dank für deine tollen Videos und weiter so!
Danke für dein Feedback. In der Tat bin ich sehr schnell, was aber auch daran liegt das ich alles in einem Take und ohne Script spontan aufnehmen. Dann ist es schwierig abzuschätzen wie schnell oder langsam ich meinen Screen zeigen soll! Für mich Fachidioten ist es natürlich total easy. Für einen Außenstehenden vielleicht eben nicht, wie ich an deinem Kommentar entnehmen konnte. Ich Versuch beim nächsten Video daran zu denken.
Wow finde das mega tool, wäre es auch möglich damit lokale Daten, und videos zu klassifizieren, fände es auch toll wen man das irgenwie nachbauen könnte um damit selbst rumzuspielen.
Also für meine eigenen Videos habe ich das mit mp3 gelöst. Das Audio kann ich von Whisper transkribieren lassen. Dann kommt der normale Workflow ins Spiel. Im Prinzip musst du bei jeder Art von Inhalt auf den eigentlichen Text kommen. Das wird die Herausforderung sein. Zum Beispiel wäre ein PDF im Prinzip schon durchsuchbar, wenn der Text darin nicht in ein Bild umgewandelt worden wäre. Ein Bild geht mit GPTVision. Es ist natürlich eine Kostenfrage, wie weit man gehen kann. Lokale Modelle wie Gemini2 sind leider noch nicht in der Lage, lange Texte zusammenzufassen, geschweige denn auszuwerten.
Sehr geil. Wäre cool wenn du sowas auch zur Verfügung stellst zumindest in rudimentärer Form, damit man selbst mal etwas rumspielen kann. LG
Hi @lollihonk, was und wie soll ich dir das zu Verfügung stellen? Soll ich mehr auf die Automation, Airtable, Webhook oder Python eingehen?
@@bastianstrauss wie wäre mit der Funktion "Export Blueprint"? Dann kann jeder das mal bei sich importieren. Wäre cool.
Leider geht das wegen dem Airtable nicht! Dir fliegt der Blueprint um die Ohren. Ich bau das mal als Blogbeitrag!
Kann ich über den chatGPT API Key dann auch Funktionen wie den Data Analyst oder DALL-E 3 verwenfen?
Nein, dafür musst du weiterhin 20$ bezahlen!
@@bastianstrauss Danke für den Hinweis und die schnelle Antwort! Ist weniger eine Frage des Geldes, sondern mehr der Praktischen Nutzung (z.B. Data Analyst für lokale LLMs, Verwendung von einem eigenen (Chatbot) UI und Verwendung von Data Analyst im eigenen UI) - gibt es eigentlich Alternativen zu chatGPT die es ermöglichen, Excel Files etc. zu erstellen?
Interessante Fragestellung. Ich beschäftige mich zurzeit eher mit RAG und Co. Aber das werde ich auch einfach mal weiter verfolgen. Insbesondere der Idee mit lokalen LLM's
Antwort: Ja -> Ollama+ PandaAI als openSource... werde ich mal testen!
Sehr gutes Video
Danke
Wirklich cooles Video
Danke
Voll gut! Kann man das als Vorlage von dir bekommen?
Hab dir ne DM geschickt
super video
Hast Du Erfahrungen, wie weit man das mit einer lokalen Chroma DB treiben kann?
Tatsächlich nicht. Hab nur ne kleine virtuelle Maschine bei DigitalOcean. Aber erste Grenze ist der Speicher! Das große Embeddingmodel von OpenAI erzeugt für 400 Seiten 80MB! Bei etwa 600 Vectoren! Beim kleinen reden wir von ca. 18MB! Dann denke ich ist der nächste Faktor die CPU für das suchen in der DB. Aber der Punkt wird erst sehr spät ein Problem. Aber das ist alles Glaskugel! Vielleicht hat hier noch jemand Erfahrung damit?
Danke für die praktische Herangehensweise. Abläufe und Abhängigkeiten haben Sie verständlich erklärt. Ich versuche Ihre Umgebung nachzubauen. Arbeiten Sie mit einzelnen docker-compose-Dateien oder haben Sie alle Abhängigkeiten in eine gepackt? Können Sie diese auf github veröffentlichen? Zur Zeit habe ich es geschafft alle Container zum Laufen zu bringen, auch wenn die Konfiguration von Ports und Netzwerken Zeit gekostet hat.
Ziemlich coole Idee mehrfach abgewandelt zu fragen
Wenn ich eine Kontextgröße von 2048 Token habe und meine Texte in 1024 (oder 512) Token Blöcke schneide brauche ich doch kein Inhaltliches schneiden. Wenn jetzt ein inhaltlicher Absatz in 2 Teile geschnitten wurde, habe ich doch bei der Vektor-Suche genau die beiden Teile als return Wert der Suche und kann auch beide mit ins Kontextfenster packen, da 2 x 1024 = 2048. Ich muss dann bei der Vektor-Suche nur beachten, dass ich die nächsten 2 Vektoren bekomme (statt nur den nächsten). Oder hab ich da was falsch verstanden?
Klar. Das ist korrekt! Wie in meinem Beispiel macht das keinen Sinn. Spannend wird es aber wenn der Text 500.000 Tokens hat!
Das mit der sql Datenbank zum updaten ist ja schon mal ziemlich cool!
Ja… erleichtert vieles. Das geile: via Flowise geht das updaten des RAGs via API!!!
Hallo, ich setze gerade ein Projekt um, in dem auch Flowise genutzt wird. Nun sehe ich im Video Jever (meine Heimat) und da fragte ich mich, ob und wie man in Kontakt treten kann. Ich versuche es gleich über Linkedin. Lieben Gruß
Spannend - ist das eigentlich ein selbstgebautes Programm oder was ist das ?
Ja, ist selber entwickelt!
Sehr cooles Video.
Danke ✌
Sehr gut
Das hätte ich sein können 😀
hii can u provide the git hub link for this code ? it would be great if u do that
Das beste ist Claude Opus 3, leider in Deutschland nicht verfügbar
Klar. Aber Mistral hat ein bisher unschlagbaren Vorteil: DSGVO Konform, was im beruflichen Kontext zurzeit einen erheblichen Mehrwert darstellt!