Porraaaaaa vídeo muito bom, tava sem entender nada sobre como fazer esses bancos de conhecimento dentro do n8n, estava fazendo pelo Dify mas tive uma barreira ao plano gratuito, valeu demais!! Só um adendo, no minuto 7:17, não se trata de um bug, é que como não retorna nenhum item, ele não prossegue mesmo, aquele Always Output Data serve justamente pra isso!!
Show! Ótimo vídeo Andre. Estou na comunidade desde o lançamento, mas não consegui avançar muito no N8N e nos projetos Tenho usado mais o Flowise para RAG, Chat. A versão 2 incluiu vários recursos, sendo possível um resultado como o seu mostrado no vídeo Só um comentário que tenho usado no Flowise é combinar o modelo do LLM, Embeding e Chat do mesmo fornecedor, quando possível. Acredito que faça um diferente, como bem mostrado no vídeo Vida longa a Ai Builders! Vlw
Muito bom o vídeo. Eu tinha já replicado aqui esse workflow. Achei interessante... mas para mim e não sei se para você já aconteceu, ele vai bem para arquivos pequenos... se você precisa usar para arquivos um pouco maiores trava. E em produção a gente se depara com um banco de dados maior.
acho que é uma questão de melhorar algumas variáveis, como o modelo, temperatura, chunks e overlaps no embedding...semana que vem vai sair um vídeo no meu canal onde eu mostro esse workflow numa aplicação prática
@@AndrePrado Obrigado por responder. Particulamente meu problema foi para uma chatbot de imobiliária. São 1000 imóveis com suas características. Isso foi demais para o vector... rs Tentei supabase, pinecone ( mais fácil de configurar). Já inscrito e curtindo os vídeos. abs
@@AndrePrado Acho que ficou confuso, ele sempre foi assim, quando não se passa um objeto json: {[]} nem que seja vazio, o nó não tem como ser referenciado, então ele para o fluxo, talvez você nunca tenha percebido, mas é assim que funciona o javascript, se ele tentasse consumir o nó sem nem um objeto vazio o nó continuaria com null e de qualquer jeito nao funcionaria.
Agora sim!!!!!!!! André, a pergunta para tirar um 10... Vocês vão regravar o Automaster, Book keeper, 8Guru e o Tech Tutor, utilizando os agentes de IA do n8n? Obs. como sempre, você só trás conteúdo de primeira!!!!!
não temos nada planejado nesse sentido, mas com o que você aprende no curso, fazer isso aí é fácil demais. talvez a gente faça, mas não oficialmente no curso, e sim como bônus na comunidade
Valeu André, muito show, se possível eu gostaria de ver na comunidade ou aqui testes com o Google Gemini, ele também tem chamadas de função e tem modelos como o flash que são concorrentes diretos do GPT4o-mini, porém é Gemini tem um preço por 1M bem menor.
sensacional! overlap seria sobreposição na tradução literal. E tem que usar a versão paga do Open AI para fazer essas automações?. Ah voce respondeu no proprio video com o FAQ
Fala André. Primeiramente parabéns pelo vídeo. Agora uma duvida: olhando a pouca quantidade de linhas no BD, esse chunck não tá grande demais? Se você tem 7 ou 8 linhas no Supabase e vc retorna 20 pedaços do arquivo ele não irá retornar o arquivo inteiro neste caso?
obrigado! o chunk vai buscar no arquivo 20 pedaços do arquivo que tem a ver com a pergunta, mas realmente, ele deve trazer o arquivo todo praticamente hahahah vou fazer mais uns testes sobre isso, mas só repliquei as configurações da propria open ai
@@AndrePrado sim. Perfeito. Eu compreendi. Apenas fiquei encucado com isso. Pois pelo que entendi, cada chunck equivale a uma linha no supabase.... até acho que pra conteúdos menores seria interessante fazer o Chuck por parágrafos, ou até por linhas em uma tabela. Acho que pra Q&A funcionaria bem. De repente sai um vídeo sobre isso? Rsrs abraços
André... Teoricamente se eu colocar dados de metricas do Facebook no sheets e depois no vector store eu consigo solicitar depois para essa IA me retornar algum resultado específico? Por exemplo, qual é o ctr da campanha x?
top, uma pergunta, no assistants da openai, tem como criar uma hierarquia de agentes exemplo: escritório de advocacia tem a agente Nori que faz o pre atendimento - agente Pedro que é da área trabalhista - agente Eva da saude - agente Luca do criminal. a Nori faria o pre atendimento e vendo que o lead quer fala sobre direito criminal passaria pro Luca. enfim o RelevanceAI faz esse tipo de coisa ne? o n8n tb é capaz de fazer isso e o assistasts openai tb consegui criar ? vlw😜
André, não entendi essa parte de você ter configurado o Postgres como memória e o histórico ter sido salvo no Supabase. Se puder gravar um vídeo disso mesmo, seria ótimo. Estou usando o Redis como memória, mas só em alguns testes parece que ele já usou 10% do espaço do plano free. Não sei usar o Postgres, mas tenho ele na minha VPS, então pode acabar sendo uma alternativa melhor mesmo.
@@AndrePrado acho que me expressei mal, para fazer os embeddings estou usando a bge-m3 que funciona bem, o problema é responderem os prompts que são gerados com mais de 10000 tokens quando reúne o prompt inicial mais os textos dos vetores, acredito que tem que ser uma muito forte para conseguir responder corretamente, já testei llama3.2, qwen2.5, gemma2, nenhuma consegue responder os prompts, saem respostas totalmente alucinadas, se o uso o gemini-1.5-flash funciona que é uma beleza, enquanto tem um limite gratuito bom ainda é de boa, mas quando cortarem isso q deve ser questão de tempo aí vai ser só pagando mesmo ou arrumando uma máquina muito parruda para conseguir lidar com esse processamento que nem deve valer a pena pelo gasto e consumo.
sim! você precisa trocar no seu agente a opção de prompt, ao invés de pegar do último nó vc precisa definir abaixo e puxar a mensagem que chega do whatsapp
@@AndrePrado fiz funcionar professor, mas no Supabase Vector da esse erro: { "errorMessage": "Error searching for documents: PGRST202 Could not find the function public.match_documents(filter, match_count, query_embedding) in the schema cache Searched for the function public.match_documents with parameters filter, match_count, query_embedding or with a single unnamed json/jsonb parameter, but no matches were found in the schema cache.", "errorDescription": "Error searching for documents: PGRST202 Could not find the function public.match_documents(filter, match_count, query_embedding) in the schema cache Searched for the function public.match_documents with parameters filter, match_count, query_embedding or with a single unnamed json/jsonb parameter, but no matches were found in the schema cache.", "errorDetails": {}, "n8nDetails": { "time": "25/10/2024, 11:45:42", "n8nVersion": "1.63.4 (Self Hosted)", "binaryDataMode": "default", "cause": {} } }
Porraaaaaa vídeo muito bom, tava sem entender nada sobre como fazer esses bancos de conhecimento dentro do n8n, estava fazendo pelo Dify mas tive uma barreira ao plano gratuito, valeu demais!! Só um adendo, no minuto 7:17, não se trata de um bug, é que como não retorna nenhum item, ele não prossegue mesmo, aquele Always Output Data serve justamente pra isso!!
Cara, profunda admiração pelo seu trabalho e por sua pessoa. E vou dar o "play" no vídeo agora
muito obrigado! espero que tenha gostado do vídeo
Ótimo conteúdo, uma dúvida, seria possível adicionar um assistente no fluxo ? Se sim aonde ele ficaria neste fluxo ?
Excelente. Valew 🙏🏻🙏🏻🙏🏻
Show! Ótimo vídeo Andre. Estou na comunidade desde o lançamento, mas não consegui avançar muito no N8N e nos projetos
Tenho usado mais o Flowise para RAG, Chat. A versão 2 incluiu vários recursos, sendo possível um resultado como o seu mostrado no vídeo
Só um comentário que tenho usado no Flowise é combinar o modelo do LLM, Embeding e Chat do mesmo fornecedor, quando possível.
Acredito que faça um diferente, como bem mostrado no vídeo
Vida longa a Ai Builders! Vlw
Muito bom o conteúdo, comparação de primeira!!!!
O dify me salva nesses quesitos com maestria
o dify é muito bom, eu confesso que usei só uma vez e achei ok, mas a galera que eu tenho contato não gosta tanto não
Excelente conteúdo! Parabéns! Gratidão!
Eu uso FAISS para fazer esse armazenamento já que utilizo o chatbot localmente pra mim mesmo.
Muito bom o vídeo. Eu tinha já replicado aqui esse workflow. Achei interessante... mas para mim e não sei se para você já aconteceu, ele vai bem para arquivos pequenos... se você precisa usar para arquivos um pouco maiores trava. E em produção a gente se depara com um banco de dados maior.
acho que é uma questão de melhorar algumas variáveis, como o modelo, temperatura, chunks e overlaps no embedding...semana que vem vai sair um vídeo no meu canal onde eu mostro esse workflow numa aplicação prática
@@AndrePrado Obrigado por responder. Particulamente meu problema foi para uma chatbot de imobiliária. São 1000 imóveis com suas características. Isso foi demais para o vector... rs Tentei supabase, pinecone ( mais fácil de configurar). Já inscrito e curtindo os vídeos. abs
vou testar uma estratégia pra isso, mas não garanto, se der certo posto aqui no yt
André, não é bug do n8n, é assim que a estrutura de dados funciona!
mas antes funcionava de outro jeito
dessa forma ficou péssimo trabalhar com certas features no n8n
@@AndrePrado Acho que ficou confuso, ele sempre foi assim, quando não se passa um objeto json: {[]} nem que seja vazio, o nó não tem como ser referenciado, então ele para o fluxo, talvez você nunca tenha percebido, mas é assim que funciona o javascript, se ele tentasse consumir o nó sem nem um objeto vazio o nó continuaria com null e de qualquer jeito nao funcionaria.
eu sinceramente NUNCA tinha tido esse problema antes, agora até no switch tem dado esse problema, e tem causado suporte pra caramba pra nós hahahahah
Agora sim!!!!!!!! André, a pergunta para tirar um 10... Vocês vão regravar o Automaster, Book keeper, 8Guru e o Tech Tutor, utilizando os agentes de IA do n8n? Obs. como sempre, você só trás conteúdo de primeira!!!!!
não temos nada planejado nesse sentido, mas com o que você aprende no curso, fazer isso aí é fácil demais.
talvez a gente faça, mas não oficialmente no curso, e sim como bônus na comunidade
Valeu André, muito show, se possível eu gostaria de ver na comunidade ou aqui testes com o Google Gemini, ele também tem chamadas de função e tem modelos como o flash que são concorrentes diretos do GPT4o-mini, porém é Gemini tem um preço por 1M bem menor.
boa ideia Mauricio! vamos fazer algo assim sim, acho interessante essas comparações
sensacional! overlap seria sobreposição na tradução literal. E tem que usar a versão paga do Open AI para fazer essas automações?. Ah voce respondeu no proprio video com o FAQ
top André !
Como foi criado a coluna embedding do tipo vector?
opa, na própria documentação do supabase tem a sql pra fazer isso
supabase.com/docs/guides/ai/langchain?database-method=sql
espero que te ajude!
@@AndrePrado eu usei ia do postgres e me respondeu que tinha que instalar um plugin fiz e deu certo
Fala André. Primeiramente parabéns pelo vídeo. Agora uma duvida: olhando a pouca quantidade de linhas no BD, esse chunck não tá grande demais? Se você tem 7 ou 8 linhas no Supabase e vc retorna 20 pedaços do arquivo ele não irá retornar o arquivo inteiro neste caso?
obrigado!
o chunk vai buscar no arquivo 20 pedaços do arquivo que tem a ver com a pergunta, mas realmente, ele deve trazer o arquivo todo praticamente hahahah
vou fazer mais uns testes sobre isso, mas só repliquei as configurações da propria open ai
@@AndrePrado sim. Perfeito. Eu compreendi. Apenas fiquei encucado com isso. Pois pelo que entendi, cada chunck equivale a uma linha no supabase.... até acho que pra conteúdos menores seria interessante fazer o Chuck por parágrafos, ou até por linhas em uma tabela. Acho que pra Q&A funcionaria bem. De repente sai um vídeo sobre isso? Rsrs abraços
não sei se equivale a uma linha, sinceramente...precisamos fazer testes sobre isso
Excelente vídeo, e possível compartilhar esse workflow?
obrigado!
vou criar um github e disponibilizar esses workflows pra vcs, mas ainda não está disponível
ah! mas na descrição desse vídeo tem o link pro canal que fez esse workflow originalmente, e lá tem o link pra baixar =)
@@AndrePrado eu vi o vídeo que usou e entrei no git dele, obrigado por responder
André... Teoricamente se eu colocar dados de metricas do Facebook no sheets e depois no vector store eu consigo solicitar depois para essa IA me retornar algum resultado específico? Por exemplo, qual é o ctr da campanha x?
pode sim, mas nesse caso eu usaria a estratégia de buscar direto num banco de dados normal com function calling
top, uma pergunta, no assistants da openai, tem como criar uma hierarquia de agentes exemplo:
escritório de advocacia tem a agente Nori que faz o pre atendimento - agente Pedro que é da área trabalhista
- agente Eva da saude - agente Luca do criminal.
a Nori faria o pre atendimento e vendo que o lead quer fala sobre direito criminal passaria pro Luca.
enfim o RelevanceAI faz esse tipo de coisa ne? o n8n tb é capaz de fazer isso e o assistasts openai tb consegui criar ?
vlw😜
opa, obrigado pela pergunta!
é possível sim fazer pelo n8n, vc pode conectar e rotear atendimentos pra vários assistants sem nenhum problema :)
André, não entendi essa parte de você ter configurado o Postgres como memória e o histórico ter sido salvo no Supabase. Se puder gravar um vídeo disso mesmo, seria ótimo.
Estou usando o Redis como memória, mas só em alguns testes parece que ele já usou 10% do espaço do plano free. Não sei usar o Postgres, mas tenho ele na minha VPS, então pode acabar sendo uma alternativa melhor mesmo.
é que é o postgres do supabase
o banco de dados do supabase é o postgres
Não é melhor pinecone ou qdrant? O vector da superbase é teoricamente recente e não tão forte aparentemente
o vector do supabase é literalmente o pgvector do postgres, é tão bom quanto
@ entendi, obrigado, bom saber
Show. Poderia compartilhar o arquivo do Workflow?
cara, vou fazer um github pra vcs poderem baixar os workflows, mas até lá, no vídeo original (que tá na descrição) tem o github do cara que fez =)
as open source são péssimas com vetores, se achar alguma que preste avise por favor, estou usando a api gratuita da gemini e funciona muito bem
o Jina ai lançou um modelo de embedding, vale a pena dar uma olhada
@@AndrePrado acho que me expressei mal, para fazer os embeddings estou usando a bge-m3 que funciona bem, o problema é responderem os prompts que são gerados com mais de 10000 tokens quando reúne o prompt inicial mais os textos dos vetores, acredito que tem que ser uma muito forte para conseguir responder corretamente, já testei llama3.2, qwen2.5, gemma2, nenhuma consegue responder os prompts, saem respostas totalmente alucinadas, se o uso o gemini-1.5-flash funciona que é uma beleza, enquanto tem um limite gratuito bom ainda é de boa, mas quando cortarem isso q deve ser questão de tempo aí vai ser só pagando mesmo ou arrumando uma máquina muito parruda para conseguir lidar com esse processamento que nem deve valer a pena pelo gasto e consumo.
Professor tentei colocar o whatsapp porem não deu certo pois não retorna o chat Input e ai da erro, consegue me dar um norte para essa solução?
sim! você precisa trocar no seu agente a opção de prompt, ao invés de pegar do último nó vc precisa definir abaixo e puxar a mensagem que chega do whatsapp
@@AndrePrado ja tentei e da erro
então o erro é outro, não é esse
@@AndrePrado fiz funcionar professor, mas no Supabase Vector da esse erro: {
"errorMessage": "Error searching for documents: PGRST202 Could not find the function public.match_documents(filter, match_count, query_embedding) in the schema cache Searched for the function public.match_documents with parameters filter, match_count, query_embedding or with a single unnamed json/jsonb parameter, but no matches were found in the schema cache.",
"errorDescription": "Error searching for documents: PGRST202 Could not find the function public.match_documents(filter, match_count, query_embedding) in the schema cache Searched for the function public.match_documents with parameters filter, match_count, query_embedding or with a single unnamed json/jsonb parameter, but no matches were found in the schema cache.",
"errorDetails": {},
"n8nDetails": {
"time": "25/10/2024, 11:45:42",
"n8nVersion": "1.63.4 (Self Hosted)",
"binaryDataMode": "default",
"cause": {}
}
}
@@AndrePrado arrumei o erro que estava dando do match_documents
Eu uso pra buscar dados em uma planilha csv
ótima ideia também
@@AndrePrado não tinha pensado na opção de atualizar de forma autoamatica, vou implementar
é bom né? deixa tudo automático, dá pra fazer vários agentes que aprendem sozinhos e se atualizam automaticamente dessa forma
Como entro no seu grupo do whatsapp?
o grupo tá lotado 😂