- 19
- 121 637
Daniel Romero
Brazil
Приєднався 5 гру 2011
Vamos trocar uma ideia sobre tecnologia?
Meu nome é Daniel Romero, tenho 23 anos de experiência na industria tech.
Já trabalhei com Linux servers, fui desenvolvedor de software e nos últimos 5 anos resolvi
estudar e trabalhar com Data Science, Machine Learning e Inteligência artificial.
Espero que goste do conteúdo!
infoslack.pro/
Meu nome é Daniel Romero, tenho 23 anos de experiência na industria tech.
Já trabalhei com Linux servers, fui desenvolvedor de software e nos últimos 5 anos resolvi
estudar e trabalhar com Data Science, Machine Learning e Inteligência artificial.
Espero que goste do conteúdo!
infoslack.pro/
Explicação completa do modelo Transformer com base no paper: Attention Is All You Need
Uma revisão completa de todas as camadas do modelo Transformer (incluindo matemática): autoatenção , multi head self-attention, positional encoding, incluindo todas as multiplicações de matrizes e um tour no processo de treinamento e inferência.
Paper: Attention is all you need - arxiv.org/abs/1706.03762
Paper: Attention is all you need - arxiv.org/abs/1706.03762
Переглядів: 3 834
Відео
Monitorando aplicações LLM com LangSmith
Переглядів 13 тис.3 місяці тому
Nesse vídeo veremos um pouco sobre como monitorar, debugar e testar aplicações LLM com um kit de observabilidade da LangChain, vamos conhecer o LangSmith! Links: - Exemplo 1: github.com/infoslack/youtube/blob/main/langsmith/LangSmith-001.ipynb - Exemplo 2: github.com/infoslack/youtube/blob/main/langsmith/LangSmith-002.ipynb Fala galera, estou planejando lançar um curso focado no desenvolvimento...
Começando com LangGraph - tutorial com exemplos
Переглядів 7 тис.3 місяці тому
Nesse vídeo tutorial vamos explorar o LangGraph com alguns exemplos criando o nosso primeiro AI agent. Exemplo 1 - github.com/infoslack/youtube/blob/main/langgraph/LangGraph-001.ipynb Exemplo 2 - github.com/infoslack/youtube/blob/main/langgraph/LangGraph-002.ipynb Exemplo 3 - github.com/infoslack/youtube/blob/main/langgraph/LangGraph-003.ipynb LangGraph Engineer - smith.langchain.com/studio/thr...
Deepfake em ação com Deep-Live-Cam
Переглядів 14 тис.3 місяці тому
Resolvi fazer esse vídeo pois a gravação do experimento com Deepfake usando Deep-Live-Cam viralizou. Vamos ver como eu fiz, o que usei e o mais importante, formas de detectar deepfake! Vamos aos links: - Deep-Live-Cam: github.com/hacksider/Deep-Live-Cam - Detecting Altered Images: belkasoft.com/detecting-forged-images - Image Saturation Tool: claude.site/artifacts/6890e3d7-e65e-41ff-a7d4-3ccb38...
Top 7 livros para aprender sobre machine learning e inteligência artificial
Переглядів 7 тис.3 місяці тому
Essa é uma lista curta dos meus 7 livros preferidos para estudar sobre machine learning, redes neurais e IA. Vamos aos links: Python p/ Análise de Dados: www.amazon.com.br/Python-Para-Análise-Dados-Tratamento/dp/8575228412/ ML com Scikit-Learn, Keras e TensorFlow: www.amazon.com.br/Mãos-Obra-Aprendizado-Scikit-Learn-Inteligentes-ebook/dp/B09H13N8FN/ Neural Networks from Scratch in Python: nnfs....
RAG avançado com filtros - Self Querying Retrieval
Переглядів 4,9 тис.3 місяці тому
A busca semântica é poderosa, mas não é a resposta para tudo. Por exemplo, você não precisa de uma busca semântica se estiver procurando por um ano ou um nome específico. Em vez disso, podemos fazer pesquisas diretas para esses casos. Neste vídeo, veremos como usar a self querying retrieval no LangChain. Notebook: github.com/infoslack/youtube/blob/main/self-querying-retrieval/filter.ipynb Datas...
Como reduzir custos de aplicações LLM com cache semântico
Переглядів 9 тис.4 місяці тому
Nesse vídeo vamos entender como reduzir custos de aplicações LLM (chatbots e muito mais) adicionando uma camada de cache para reduzir as solicitações de API nos modelos de LLM como OpenAI por exemplo. Dataset: huggingface.co/datasets/llamafactory/PubMedQA Notebook: github.com/infoslack/youtube/blob/main/cache-semantico/semantic_cache.ipynb Da uma conferida no comentário fixado ;)
Transcrição e Sumarização de vídeos com OpenAI Whisper
Переглядів 3,8 тис.4 місяці тому
Neste vídeo vamos construir um sistema de transcrição e sumarização de vídeos do UA-cam utilizando OpenAI Whisper e o GPT-4o-mini. No final faremos um RAG para para "conversar" com o texto da transcrição. Espero que gostem! Notebook usado no vídeo: github.com/infoslack/youtube/blob/main/whisper/whisper_rag.ipynb Notebook atualizado: github.com/infoslack/youtube/blob/main/whisper/whisper_rag_upd...
Como criar um ChatBot com RAG usando OpenAI e LangChain
Переглядів 17 тис.4 місяці тому
Neste vídeo, vamos construir um chatbot usando Retrieval Augmented Generation (RAG) do zero. Usaremos o gpt-3.5-turbo LLM da OpenAI e no final um exemplo com Llama 3.1-70b por meio da Groq API. Tudo isso utilizando LangChain! Além disso, usaremos o modelo de embeddings text-embedding-3-small da OpenAI e o banco de dados de vetores Qdrant como nossa base de conhecimento. Espero que gostem! Noteb...
Como utilizar OpenAI Embeddings e Pinecone para busca semântica
Переглядів 8 тис.Рік тому
Nesse vídeo vou te mostrar como realizar busca semântica e criar uma memória de longo prazo para o seu Chatbot utilizando OpenAI embeddings Pinecone. - Exemplos mostrados no vídeo: github.com/infoslack/youtube/tree/main/embeddings
GPT-3 "avançado" treinando modelos com fine-tuning
Переглядів 15 тис.Рік тому
Vídeo rápido sobre como treinar modelos GPT-3 usando api da OpenAI com fine-tuning. LINKS: - beta.openai.com/docs/guides/fine-tuning - github.com/infoslack/youtube/tree/main/fine-tuning
ChatGPT "avançado" e outros modelos da OpenAI
Переглядів 7 тис.Рік тому
Esse é um guia avançado sobre ChatGPT e engenharia de prompt. Um tour por outros modelos da OpenAI. - Openai api: beta.openai.com/docs/introduction - Fine-tuning: beta.openai.com/docs/guides/fine-tuning - Tokenizer: beta.openai.com/tokenizer - OpenAI Examples: beta.openai.com/examples - Script mostrado no vídeo: github.com/infoslack/youtube
Como o ChatGPT funciona?
Переглядів 1,5 тис.Рік тому
Nesse vídeo eu faço uma rápida explicação sobre como o ChatGPT funciona por baixo dos panos. Não, essa não é uma IA abrangente, vem comigo que explico mais!
Conheça o ChatGPT da OpenAI
Переглядів 1,5 тис.Рік тому
O ChatGPT da OpenAI é um grande avanço nos modelos de inteligência artificial generativa.
O que é eBPF ?
Переглядів 1,9 тис.2 роки тому
Essa é uma rápida introdução ao eBPF, uma ferramenta poderosa para tracing, profiling e observabilidade! Links: - Bpftrace: github.com/iovisor/bpftrace/ - BCC: github.com/iovisor/bcc - Pixie: github.com/pixie-io/pixie - Pyroscope: pyroscope.io/ - Kubectl-trace: github.com/iovisor/kubectl-trace - Cilium: cilium.io/ - BumbleBee: bumblebee.io/EN - Falco: github.com/falcosecurity/falco
Muito obrigado pelo vídeo, top demais, estou iniciando em ML e Dl, entendi perfeitamente o conceito de RAG
o que fizer será show
Excelente vídeo, muito bem explicado. Para quem está tentando entender como tudo isso funciona, recomendo reproduzir tudo o que foi feito no vídeo, porém com o auxílio do ChatGPT para obter explicações sobre as bibliotecas, funções e o detalhes do que foi executado.
Ótimo video, parabéns! Estou tentando usar o code porem não esta dando certo, poderia me ajudar? ----------------------------------------------------------------------------------------------------------------------------------- import os import docx import openai import pinecone from openai.embeddings_utils import get_embedding from getpass import getpass openai.api_key = getpass() ----------------------------------------------------------------------------------------------------------------------------------- Esta gerando esse erro: { "name": "ModuleNotFoundError", "message": "No module named 'openai.embeddings_utils'", "stack": "--------------------------------------------------------------------------- ModuleNotFoundError Traceback (most recent call last) Cell In[22], line 5 3 import openai 4 import pinecone ----> 5 from openai.embeddings_utils import get_embedding 6 from getpass import getpass 8 openai.api_key = getpass() ModuleNotFoundError: No module named 'openai.embeddings_utils'" }
Houve uma mudança no client da OpenAI então a função "get_embedding" não está mais disponível pela lib deles. É necessário implementar essa função, aqui tem um exemplo atualizado desse código: github.com/infoslack/qdrant-example/blob/main/Embeddings.ipynb
Bom dia Daniel. Muito obrigado por compartilhar esse conhecimento conosco. Tenho algumas duvidas aqui e ficaria muito grato pela sua contribuição: - É possível fazer algo parecido utilizando recursos multimodais das modelos generativos também? - E em caso de informações sigilosas, existe alguma restrição e caso exista quais alternativas de modelos temos para contornar essa situação?
Perguntas muito boas!! - Sim é possível adaptar sem problemas para multimodal; - Sobre informações sigilosas: você pode anonimizar os dados de input com serviços como: peakprivacy.ch/en/ ou projetos open source github.com/fsndzomga/anonLLM
Pode fazer os tutoriais básicos também.
o meu nao reconhece a camera do integrada no notebook pq
que video bom
Gostei do conteúdo parabens, mais conteudos como este são bem vindos
Conteúdo muito bom salvou a minha apresentação da facul, mas eu fiquei com uma dúvida de onde surge o output do output encoder. Seria um resultado que nós damos como esperado. No caso você tem que evaluar ele antes.
O output do encoder é o resultado final dos blocos de camadas de atenção e feed-forward que compõem o encoder. Esse output representa a saída das operações de atenção realizadas nas camadas do encoder sobre a sequência de entrada. Ao final de todas as camadas do encoder, o output é uma representação codificada da sequência de entrada, que pode ser passada ao decoder (se o Transformer estiver no modo de tradução ou geração) ou usada diretamente para tarefas de classificação e outras análises.
Obrigado pelo conteúdo! crie mais vídeos sobre esse tema 👊
Estou assistindo este vídeo pela terceira vez, ele gerou tanta duvida, e ao mesmo tempo me gerou um caminho gigantesco de conteúdo a ser estudado que vou ter que voltar aqui mais umas 3x pra revê-lo.. rsrs parabéns
Quem não estiver conseguindo utilizar o plot_roc_curve(), tentem RocCurveDisplay.from_estimator() pois o plot_roc_curve foi depreciado.
Estou começando essa jornada para aprender Machine Learning, mesmo já tendo feito Engenharia, acredito que tenho algumas lacunas na parte de matématica, o que recomenda?
Para preencher as lacunas eu consumi dois cursos na Coursera: Mathematics for Engineers Specialization e Algebra: Elementary to Advanced Specialization. Depois fui para os livros treinar bastante, um de pré-cálculo (Francisco Magalhães), um de pré-álgebra (Chris McMullen), Cálculo (Stewart) e Álgebra Linear (Howard Anton).
Traga mais vídeos sobre Grok e RAG
Professor,o senhor teria paciência em tirar uma duvida de um inicante aqui,estou tentando reproduzir o modelo mas meu Output=False quando executo import os from dotenv import load_dotenv from langchain_openai import ChatOpenAI load_dotenv('./.env') O que poderia ser?
Opa! Você criou o arquivo .env no diretório do projeto?
@@daniel_romero Consegui ,agora vou me divertir aqui!Obrigado professor,virei seu seguidor,ótima didática!
Parabéns Daniel! Muito obrigado.
Mano, da hora o conteudo, parabéns e só força
Sempre conteúdo TOP, parabéns obrigado.
Professor ,isso de alguma forma paga?No caso api da openIA?
Sim, no caso da OpenAI a API deles é paga. Felizmente temos alternativas com planos free para testes e open source para rodar local como Ollama.
Seu mac é arm ou intel? tenho m1 pro e deu pau.
Mac m1 max.
Parabéns Daniel! Estou tentando desenvolver um projeto onde eu possa ler um PDF e extrair dele informações de acordo com premissas do meu negócio. Por exemplo: digamos que eu tenha um negócio do ramo de vendas para artigos de tintas, mas só vendo determinada marca e cores específicas. Ao ler o PDF que traz requisitos para compra de tintas, de la extraio as cores, por exemplo, e de acordo com o que vendo indico se minha empresa está ou não habilitada a fazer essa venda. Você conhece alguma implementação similar a esse contexto? Um abraço e parabéns pelo conteúdo!
Acho que são muitas tarefas para o LLM eu nunca vi um projeto ou exemplo próximo disso.
O que vai surgir de pron...
Excelente! Daniel, parabéns por seu trabalho e excelente didática, já me inscrevi no seu curso! Obrigado!!!!!
Explicação muito top!
Daniel, excelente vídeo! Mas como tomar uma decisão prática com os dados obtidos? Na prática, como obter uma resposta do modelo de ML diante de um paciente com determinados parâmetros?
Nesse caso uma aplicação poderia consumir o modelo treinado enviando dados não vistos para o modelo "prever". Na pratica eu teria que persistir o modelo em uma espécie de arquivo (por exemplo pickle) scikit-learn.org/stable/model_persistence.html e esse artefato gerado seria carregado em uma API e minha app web ou mobile poderia consumir essa api para enviar os dados de input para o modelo prever.
Mais um inscrito! Parabéns!
Qualidade absurda, estava querendo montar um canal assim por falta de conteúdo em PT-BR e felizmente encontrei alguém cirando nessa linha, só motivação, parabéns Daniel!
Didatica excelente, meus parabéns pelo seu trabalho
"Eu sou optimus prime...."
Sensacional ... Parabéns por esse rico conteúdo \o/
Show demais Parabéns!!!
Muiito bom!!!
Todo conteúdo é show, parabéns.
Ficou mt bom o vídeo, parabéns No exemplo q eu vá usar o prompt para uma aplicação com muitas requisições durante o dia, tem alguma vantagem o contexto via RAG ao invés de escrever no próprio prompt?
Contexto via RAG é uma forma dinâmica de passar informações no prompt. Sem isso não da para fazer muita coisa apenas com informações estáticas no prompt. Se quiser compartilhar mais detalhes do que está desenvolvendo acho que consigo explicar melhor.
@@daniel_romero eu farei um avaliador de texto que será requisitado várias vezes durante o dia, já tem algumas regras definidas do que o LLM precisa avaliar, e tenho como contexto um documento em PDF, eu tenho tanta a opção de passar as informações do PDF para o prompt(escrito mesmo) ou utilizar via RAG, aí queria entender qual seria a melhor abordagem.Obrigada
@@erikamancilha7412 esse é um bom caso de uso para RAG, principalmente se o PDF for grande, ou ainda se você precisar adicionar mais informações no futuro (outros PDFs).
Obrigada! Muito top!!!
Excelente!
Fala galera, estou planejando lançar um curso focado no desenvolvimento de aplicações com LLM, seria um AI Engineer/Developer. O plano é cobrir Fine-tuning, RAG, vector search, agents e boas práticas. Se você tiver interesse, da uma conferida na grade e faz o cadastro pra eu te avisar quando lançar: www.techlevel.pro
Oi Daniel tudo bem? Excelente conteudo, na sua grade eu adicionaria um ao menos o minimo de banco de dados vetorial , qdrant ou neo4j (se tiver tempo para algo mais complexo). Ajuda muit nas atividades de LLM.
Quando irá abrir as inscrições do curso ?
No momento estou medindo o interesse da galera. Se mais gente interessada aparecer e fizer o cadastro na mailing list, eu começo a gravar e devo lançar antes mesmo de ter 50% pronto.
Que vídeo incrível Daniel, em 20 minutos você explicou conteúdo de horas. 🤯
Valeu por esse feedback!
Muito bom, parabéns!
Muito massa essa sua lista de livros, o que me deixa com mais receio de enveredar pela área de dados são as lacunas na parte de matemáticas, a parte ilustrativa me chamou atenção nos livros.
Incrível!
Aula top. Diante dos recursos fornecido pelo LangSmith, uma sugestão, poderia fazer uma aula mostrando como construir uma aplicação de pergunta e resposta (QA), conforme mostrado no vídeo essa possibilidade.
Daniel, bom dia. Você sabe como escolher qual webcam eu poso usar, ele só vai na webcam do notebook. Queria que fossa pra uma outra webcam q eu tenho com mais qualidade, mas nao da opção de escolher
Eu tive esse mesmo problema no Mac! Pra resolver eu troquei nas configurações de sistema a câmera padrão, informando que eu queria a câmera externa como a padrão em vez de usar a embutida. Depois disso funcionou.
já tentei várias vezes instalar mas não consegui.Tem alguma dica de passo a passo?
Eu segui o readme do projeto a risca. No meu caso consegui rodar no Mac e no Linux, não tentei no Windows. Um dos problemas que tive foi com a versão da lib CUDA (deu um pouco de trabalho instalar a versão recomendada na documentação do projeto). Tirando isso, todas as instruções na documentação estão ok.
Parabéns pelo conteudo, a vontade que tenho e de sair do video e implementar todo o passo a passo🧑💻
Meu salvador, obrigado!
Excelente!
Show muito bom, sempre conteúdo TOP, parabéns.