Como criar aplicações de IA sem programação com Langflow e OpenAI + groq (TUTORIAL)
Вставка
- Опубліковано 24 тра 2024
- Neste vídeo, você vai descobrir como utilizar a poderosa ferramenta Langflow para criar interfaces IA sem necessidade de programação. Exploraremos passo a passo como configurar o ambiente, usar modelos da OpenAI e Groq, e criar um chat interativo. Ideal para quem quer desenvolver soluções AI de forma prática e eficiente.
Para colaborar com o canal:
livepix.gg/techmumus
Outros vídeos sobre Langflow:
• Como criar aplicações ...
• Langflow 1.0 - Super N...
#ia #inteligenciaartificial #langflow #langchain #groq #openai - Наука та технологія
Excelente tutorial! Parabéns e obrigado por compartilhar.
Valeu!!!
show de bola, parabens
Obrigado!! 👍👍
Podia fazer um video mostrando como criar um chat capaz de responder duvidas de funcionarios relacionadas ao RH e DP. Onde seja possivel eu fornecer o contexto informando dados em txt, pdf, ou urls.
Shoe de bola, se puder fazer um vídeo sobre agentes no longflow!
Obrigado pelo comentário e sugestão! Estou pensando sim! Valeu!
Didática muito boa, 👍👍👍
Valeu Ricardo!! Acabei de publicar um novo vídeo sobre o Langflow. Dá uma conferida lá!
Muito bom o vídeo, agradecida
Obrigado pelo comentário! 👍👍
Parabéns, a sua didática e ótima, ótimo vídeo
Valeu Rafael! Obrigado!
Cara muito bom, essas ferramentas no code são maravilhosas, parabéns pelo conteúdo
Valeu pelo comentário!! 👍👍
Muito bom, faz mais conteúdo do LangFlow, queria ver como instalar no Docker usando a versão Aplha 1.0
Valeu! Vou tentar aqui! Muita coisa interessante! 😎
@@techmumus6780 Consegui instalar langflow 1.0.0a59 na data de hoje. Estava dando alguns problemas para instalar o Python, mas consegui, queria muito instalar no Docker, subir uma Stack lá no Portainer, eu até consegui mas só com a versão latest que é a V.066.12, a versão Alpha ainda não consegui colocar lá, tem pretensão de mostrar pra galera como fazer isso lá no Portainer?
Caraca man, conhecendo o canal agr parabens pelo trabalho, muito bom 👏👏👏👏
Vc tem mais conteudo sobre o Langflow? Seria otimo
Valeu pelo comentário! Não, por enquanto só tenho esse vídeo sobre Langflow, mas têm bastante coisa sobre IA, quem sabe faço mais conteúdo sobre ele. Valeu!
@@techmumus6780 estou maratonando aqui, muito top mesmo, parabéns
Rapaz, caso faça virarei seu maior fã é comentarista de vídeo kkk 😅😅
Brincadeiras a parte, mas seria legal com certeza. Desde já muito obrigado e sucesso 🤜🤛
@ednan.martins hahahaha 😄 valeu! Deixe suas sugestões e comentários nos vídeos, são muito bem vindos! 👍
@@techmumus6780 Eu sou nova aqui, achei o seu canal pois estou buscando conhecimento sobre LangFlow e em português só achei o seu canal, se puder, produz mais conteúdo, ouvi falar que talvez na próxima semana eles vão lançar a versão Beta do langFlow.
@jucylenemelo opa! Esse vídeo que fiz usa a versão beta! Obrigado pelo comentário!
Muito bom amigo! So nao consegui fazer a lgação com Groq , ligar o prompt ao Groq
Veja se deu certo pelo que falamos pelo Instagram!
obrigado prof. pelo video, tem com colocar ai os agentes dentro deste caso de uso ?
Obrigado pelo comentário! Ainda não sei como fazer isso, mas já pensei nessa possibilidade.
Excelente vídeo... Tem como fazer ou receber chamadas do N8N para dentro do fluxo?
Valeu! Olha, ainda não sei como fazer isso.
Ótimo conteúdo, parabéns. É possível ver o Código gerado com o fluxo ?
Opa! Obrigado pelo comentário! Até onde sei não é possível.
Professor, fiquei na dúvida da chave do openAI API Key, a gente precisa comprar? Como obtenho esta chave?
Pra obter a chave da OpenAI precisa se cadastrar e comprar uns créditos. Mas da pra obter a chave do groq gratuitamente, ao menos por um tempo. É só se cadastrar lá.
Então essa API Groq é uma licença pra vc executar um LLM open source no Hardware deles?
Se eu selecionasse o modelo LLAMA 3 sem o Groq, ela iria rodar a inferência na GPU do meu server local?
A primeira resposta é sim! A segunda é não. Pra vc rodar localmente precisa usar algo como o Ollama, tem um vídeo no canal que explico como instalar usando Docker.
Parabéns pelo material! Gostaria de tirar uma dúvida, é possível ajustar o visual do chat inserindo o send_name com uma imagem pra cada? Utilizo o widget via html. Obrigado!
Obrigado! Olha… desconheço… nessa não cansigo ajudar.
parabéns
@drn1designer908 valeu!!
@@techmumus6780 eu consegui o que precisava mas precisei recriar o front do chat em react
Quais os requisitos do pc/notebook para rodar bem essas llms domesticamente?
Opa, tradução direta do site do Ollama: “Para desempenho ideal com ollama e ollama-webui, considere um sistema com uma CPU Intel/AMD que suporte AVX512 ou DDR5 para velocidade e eficiência na computação, pelo menos 16GB de RAM e cerca de 50GB de espaço disponível em disco.” Se vc tiver GPU é muito mais rápido, desde que esteja nas placas suportadas
O langflow é 100% gratuito? Outra coisa, da pra adicionar prompt de instrução para ele responder de forma personalizada?
Sim, da pra usar o Langflow sem custo. Pra usar prompts específicos é só ajustar o componente de prompt.
O langflow e semelhante ao N8N ?
O Langflow é mais focado em desenvolver algo rápido pra uso para LLMs, enquanto o N8N foca em automação em geral, ainda que tenha funções de LLM tbem.
Mestre vamos fazer um caso de um com whaticket ! Conhece ?
Opa! Conheço sim, mas não tenho acesso nem nunca testei.
Qual melhor Langflow ou Flowise?
Acho difícil dizer qual é melhor… ambos tem prós e contras.
16:11 Não entendi o que é o Groq nesse fluxo… ele é hardware pra rodar o LLAMA 3? Porque você arrastou o Groq e selecionou um outro modelo?
Olá! groq é um provedor de serviços que roda LLMs. Eles tem diferentes LLMs disponíveis e são MUITO rápidos, recomendo dar uma olhada e criar uma conta lá, eles estavam dando us créditos de graça pra testar!
@@techmumus6780 Pergunta 1- Então este "Hardware" do Groq (rápido, eficiente e low power consumption) pode substituir a GPU que Nvidia produz atualmente para modelos como o ChatGPT?
Pergunta 2: Porque a NVidia, com cientistas brilhantes não teve essa ideia ainda?
Pelo que estou vendo, o Groq é uma mina de ouro
@@Marcel-f1 Vamos lá, o time do groq desenvolveu o LPU (Language Processing Unit) que serve para inferência, que é a parte de utilizar a LLM para geração das repostas. A parte de geração do modelo ainda necessita da GPU. E quanto à sua pergunta 2, o fundador da groq foi o cara que inventou a TPU no Google, que é a tecnologia que a Google usa pra IA, ou seja o cara é um gênio...
Que estranho eu fiz tudo mas ele não pegou a memória corretamente
Tenta criar uma nova e selecionar o template de Memory Chatbot, se funcionar teve algo que vc errou no processo. São muitos detalhes.
Cara*** Então na teoria, ele consegue armazenar dados para que quando uma busca seja feita ele responda com as normas, processos e nuances de uma empresa? Isso pode ser usado para treinar funcionários, suporte de duvidas frequentes... Tanta coisa. No próximo, fala sobre os custos.
É exatamente isso, com o RAG vc alimenta o modelo com um conteúdo personalizado pra ele usar como consulta. Treinamento, processos de verificação, muitas coisas!! Valeu!
É possível fazer com as llms do ollama? Parabéns pelo vídeo!
@danielt9506 sim! Da pra fazer com qualquer LLM. Obrigado!