Hallo Bastian, ich baue gerade Deinen Make-Workflow nach---- versuche es jedenfalls ;) um zu lernen wie so was geht. Bei 11:25 wird im Router gefiltert nach "3. content". Wo kommt diese Funktion her? Diese wird mir bei Make in der Funktionsauswahl nicht angezeigt, kann nicht ausgewählt werden. Mit was hast Du die Container-Übergabe (ContentSpeicher) gebaut? Du nutzt ja Mac. Was kann man dafür in Windows nutzen? Danke für eine Rückmeldung! Grüße Steve
Hallo @Steve 3.content kommt von meinem Webhook. Ich sende meinem Webhook die URL und den Inhalt. Damit ich eben entsprechend den richtigen Flow auswählen kann. Die Variable bzw. der Inhalt der Variable kommt aus der Shortcut App vom Mac/OSX/iOS und es ist leider so unter Windows nicht verfügbar. Das Prinzip funktioniert aber auch mit GET URLdesWebhooks/?url=hier_dein_youtube_link&content=youtube dann bekommst du in Make die beiden Variablen URL und Inhalt. Ich überlege mir eine kleine Oberfläche auf Basis von Mesop, Taipy oder Streamlit zu bauen und als Docker zur Verfügung zu stellen, dann hättest du die Möglichkeit die Kurzbefehle App nachzubauen. Aber das ist meiner Meinung nach eine der am meisten unterschätzten Apps im Apple-Kosmos. Soll ich mal ein Video zum Thema WebHook / Kurzbefehl / Streamlit / Absicherung Token machen? Gruß Bastian
@@bastianstrauss Danke fürs schnelle Antworten! *Soll ich mal ein Video zum Thema WebHook / Kurzbefehl / Streamlit / Absicherung Token machen?* Ja, das wäre hilfreich, gerade für deine Abonnenten, die neu im Thema Automatisierung sind. Die Workflows hier beginnen j aalle mit Webhook, d.h. wenn da falsche Werte auf den Weg gehen, kommt kein sinnvolles Ergebnis raus. Ich bin jedenfalls mega dankbar für Deine Videos. Besser wie jede KI-Anwenderschulung an der ich bisher teilgenommen hab.
Wow finde das mega tool, wäre es auch möglich damit lokale Daten, und videos zu klassifizieren, fände es auch toll wen man das irgenwie nachbauen könnte um damit selbst rumzuspielen.
Also für meine eigenen Videos habe ich das mit mp3 gelöst. Das Audio kann ich von Whisper transkribieren lassen. Dann kommt der normale Workflow ins Spiel. Im Prinzip musst du bei jeder Art von Inhalt auf den eigentlichen Text kommen. Das wird die Herausforderung sein. Zum Beispiel wäre ein PDF im Prinzip schon durchsuchbar, wenn der Text darin nicht in ein Bild umgewandelt worden wäre. Ein Bild geht mit GPTVision. Es ist natürlich eine Kostenfrage, wie weit man gehen kann. Lokale Modelle wie Gemini2 sind leider noch nicht in der Lage, lange Texte zusammenzufassen, geschweige denn auszuwerten.
Du bist irgendwie verrückt! Da brauche ich Wochen für um das nachzubauen!!! Aber Mega geil!
I do my very best 😂
Hallo Bastian, ich baue gerade Deinen Make-Workflow nach---- versuche es jedenfalls ;) um zu lernen wie so was geht. Bei 11:25 wird im Router gefiltert nach "3. content". Wo kommt diese Funktion her? Diese wird mir bei Make in der Funktionsauswahl nicht angezeigt, kann nicht ausgewählt werden. Mit was hast Du die Container-Übergabe (ContentSpeicher) gebaut? Du nutzt ja Mac. Was kann man dafür in Windows nutzen? Danke für eine Rückmeldung!
Grüße Steve
Hallo @Steve 3.content kommt von meinem Webhook. Ich sende meinem Webhook die URL und den Inhalt. Damit ich eben entsprechend den richtigen Flow auswählen kann. Die Variable bzw. der Inhalt der Variable kommt aus der Shortcut App vom Mac/OSX/iOS und es ist leider so unter Windows nicht verfügbar.
Das Prinzip funktioniert aber auch mit GET URLdesWebhooks/?url=hier_dein_youtube_link&content=youtube dann bekommst du in Make die beiden Variablen URL und Inhalt. Ich überlege mir eine kleine Oberfläche auf Basis von Mesop, Taipy oder Streamlit zu bauen und als Docker zur Verfügung zu stellen, dann hättest du die Möglichkeit die Kurzbefehle App nachzubauen. Aber das ist meiner Meinung nach eine der am meisten unterschätzten Apps im Apple-Kosmos.
Soll ich mal ein Video zum Thema WebHook / Kurzbefehl / Streamlit / Absicherung Token machen? Gruß Bastian
@@bastianstrauss Danke fürs schnelle Antworten! *Soll ich mal ein Video zum Thema WebHook / Kurzbefehl / Streamlit / Absicherung Token machen?* Ja, das wäre hilfreich, gerade für deine Abonnenten, die neu im Thema Automatisierung sind. Die Workflows hier beginnen j aalle mit Webhook, d.h. wenn da falsche Werte auf den Weg gehen, kommt kein sinnvolles Ergebnis raus. Ich bin jedenfalls mega dankbar für Deine Videos. Besser wie jede KI-Anwenderschulung an der ich bisher teilgenommen hab.
Wow finde das mega tool, wäre es auch möglich damit lokale Daten, und videos zu klassifizieren, fände es auch toll wen man das irgenwie nachbauen könnte um damit selbst rumzuspielen.
Also für meine eigenen Videos habe ich das mit mp3 gelöst. Das Audio kann ich von Whisper transkribieren lassen. Dann kommt der normale Workflow ins Spiel. Im Prinzip musst du bei jeder Art von Inhalt auf den eigentlichen Text kommen. Das wird die Herausforderung sein. Zum Beispiel wäre ein PDF im Prinzip schon durchsuchbar, wenn der Text darin nicht in ein Bild umgewandelt worden wäre. Ein Bild geht mit GPTVision. Es ist natürlich eine Kostenfrage, wie weit man gehen kann. Lokale Modelle wie Gemini2 sind leider noch nicht in der Lage, lange Texte zusammenzufassen, geschweige denn auszuwerten.
Sehr geil. Wäre cool wenn du sowas auch zur Verfügung stellst zumindest in rudimentärer Form, damit man selbst mal etwas rumspielen kann. LG
Hi @lollihonk, was und wie soll ich dir das zu Verfügung stellen? Soll ich mehr auf die Automation, Airtable, Webhook oder Python eingehen?
@@bastianstrauss wie wäre mit der Funktion "Export Blueprint"? Dann kann jeder das mal bei sich importieren. Wäre cool.
Leider geht das wegen dem Airtable nicht! Dir fliegt der Blueprint um die Ohren. Ich bau das mal als Blogbeitrag!