ontem eu estava usando o prompt pré pronto deles de transcrição de áudio, o negócio além de marcar o tempo, transcreve tudo numa precisão absurda e ainda bem escrito, com pontuação correta, o mais da hora é que ele ainda fala "blz, vou fazer isso, vai ficar dese jeito aqui quando vc me mandar um áudio", meio que um exemplo da saída transcrita, tá sensacional.
Hoje, das plataformas IA disponíveis, como ChatGPT, Gemini, Claude, bem como suas variantes, qual seria a mais eficiente para assistência na elaboração de documentos jurídicos, que tenham conhecimento de normas e tal? Ou teria que contratar um serviço específico que as "personalize"? PS: já experimentei sites que vendem esses serviços e gostei menos do usar modelos gratuitos do Google e OpenAI, por exemplo.
O ideal seria você contratar um desenvolvedor para criar um bot integrado ao seu whats up por exemplo, usando api de uma dessas IAs e configurando elas para agir do modo que você deseja em específico.
Eu não conheço exatamente sua necessidade de precisão, quantidade de informações que precisa ou tem que consultar então vou dar uma ideia geral aqui. Para algo muito específico, sugiro sempre o desenvolvimento mesmo utilizando alguma API para o ChatGPT ou Claude. O que você pode fazer a mais baixo custo para ver se te atende é criar um GPT e passar alguns documentos para a base de conhecimento. Você pode tentar fazer o mesmo com os projetos do Claude, mas claro que aí envolve pagar a licença pelo menos por um mês.
@@cafecominovacao assino em baixo desse comentário, pro seu caso de uso talvez um GPT bem estruturado tendo uma boa instrução e alimentado com documentos específicos seja mais que o suficiente mas de qualquer forma você precisaria investir o valor do plano plus para não ter praticamente limites nas interações.
Se o problema exige um modelo especializado em um determinado domínio, como o jurídico, existem duas abordagens principais para treinar uma LLM ou SLM com os documentos: Fine-Tuning e RAG (Retrieval-Augmented Generation). Fine-Tuning: O Fine-Tuning é um ajuste fino no modelo, onde ele é efetivamente treinado com os documentos fornecidos. Durante esse processo, os pesos internos da LLM são modificados, tornando o modelo especializado no domínio desejado. Vantagens: Oferece respostas rápidas e precisas dentro do domínio treinado. Ideal para informações estáticas e bem definidas. Permite que o modelo funcione offline, sem necessidade de acessar bases externas. Desvantagens: Processo caro e demorado, especialmente para modelos grandes. Reduz a flexibilidade do modelo para lidar com informações fora do escopo do treinamento. Requer mais recursos computacionais e dados de alta qualidade para o treinamento. RAG (Retrieval-Augmented Generation): O RAG utiliza um banco de dados vetorizado para contextualizar e recuperar informações relevantes, fornecendo à LLM o suporte necessário para gerar respostas. Vantagens: Não requer treinamento do modelo, o que reduz custos. Funciona bem com informações dinâmicas ou frequentemente atualizadas. Mais flexível, já que o modelo não é restrito a um único domínio. Desvantagens: Pode ser mais lento, já que depende da busca e recuperação de informações no momento da execução. Requer uma infraestrutura de armazenamento e indexação para o banco de dados vetorizado. A precisão das respostas depende diretamente da qualidade do banco de dados vetorizado. Comparação entre RAG e Fine-Tuning: Custo: RAG é mais barato, pois não há re-treinamento do modelo. Fine-Tuning, por outro lado, tem um custo inicial elevado devido ao processo de treinamento. Velocidade de Execução: Fine-Tuning é mais rápido porque as respostas já estão incorporadas no modelo. RAG pode ser mais lento, já que envolve a busca de informações. Adequação: RAG é ideal para informações dinâmicas e situações onde o conteúdo precisa ser frequentemente atualizado. Fine-Tuning é melhor para informações estáticas e cenários que exigem alta eficiência em um domínio específico. Conclusão: Ambas as abordagens têm suas aplicações específicas. No seu caso, se o foco for custo-benefício e flexibilidade, o RAG pode ser mais adequado. Já se a prioridade for alta performance em um domínio estático, o Fine-Tuning é a melhor escolha.
Com o passar do tempo, as empresas evoluem seus modelos e deixam os "desatualizados" de uso gratuito. Então, respondendo sua pergunta, daqui um tempo é bem provável que tenhamos outro modelo bom da empresa Google que seja a versão paga, e alguma versão anterior seja liberado no gratuito. Se será essa especificamente é difícil dizer.
Eu dei um input de 5000 linhas de código e ele me retornou um output de 200 linhas(travou), no O1 eu não tenho esse tipo de problema, então para o meu caso ele não é o melhor LLM, sem contar que o Output dele é muito lento, eu estou usando o Advanced e também tentei no AI Studio.
Foi meio frustrante porque eu queria que o gemini saísse a frente nesse quesito igual diz no llmarena, mas infelizmente vou ter que seguir com openAi 😅
Apesar não ser gênio faltar pensamento criativo fora de caixa nem polimata de raciocínio avançado de interdisciplinar mistura em Biologia e medicina Uso modelo IA, Ser ótimo canal de notícias
Valeu!
Obrigado pelo feedback! 🚀
ontem eu estava usando o prompt pré pronto deles de transcrição de áudio, o negócio além de marcar o tempo, transcreve tudo numa precisão absurda e ainda bem escrito, com pontuação correta, o mais da hora é que ele ainda fala "blz, vou fazer isso, vai ficar dese jeito aqui quando vc me mandar um áudio", meio que um exemplo da saída transcrita, tá sensacional.
Top 🚀
modeklo 1206?
@@igorrocharibeiro1123 yeah
Estou usando esse "experimental 1206". Tenho certeza que ele tem tecnologia alienígena.
Hahaha
😂😂😂😂😂😂😂
Hoje, das plataformas IA disponíveis, como ChatGPT, Gemini, Claude, bem como suas variantes, qual seria a mais eficiente para assistência na elaboração de documentos jurídicos, que tenham conhecimento de normas e tal? Ou teria que contratar um serviço específico que as "personalize"? PS: já experimentei sites que vendem esses serviços e gostei menos do usar modelos gratuitos do Google e OpenAI, por exemplo.
O ideal seria você contratar um desenvolvedor para criar um bot integrado ao seu whats up por exemplo, usando api de uma dessas IAs e configurando elas para agir do modo que você deseja em específico.
Eu não conheço exatamente sua necessidade de precisão, quantidade de informações que precisa ou tem que consultar então vou dar uma ideia geral aqui.
Para algo muito específico, sugiro sempre o desenvolvimento mesmo utilizando alguma API para o ChatGPT ou Claude.
O que você pode fazer a mais baixo custo para ver se te atende é criar um GPT e passar alguns documentos para a base de conhecimento. Você pode tentar fazer o mesmo com os projetos do Claude, mas claro que aí envolve pagar a licença pelo menos por um mês.
@@cafecominovacao assino em baixo desse comentário, pro seu caso de uso talvez um GPT bem estruturado tendo uma boa instrução e alimentado com documentos específicos seja mais que o suficiente mas de qualquer forma você precisaria investir o valor do plano plus para não ter praticamente limites nas interações.
Se o problema exige um modelo especializado em um determinado domínio, como o jurídico, existem duas abordagens principais para treinar uma LLM ou SLM com os documentos: Fine-Tuning e RAG (Retrieval-Augmented Generation).
Fine-Tuning:
O Fine-Tuning é um ajuste fino no modelo, onde ele é efetivamente treinado com os documentos fornecidos. Durante esse processo, os pesos internos da LLM são modificados, tornando o modelo especializado no domínio desejado.
Vantagens:
Oferece respostas rápidas e precisas dentro do domínio treinado.
Ideal para informações estáticas e bem definidas.
Permite que o modelo funcione offline, sem necessidade de acessar bases externas.
Desvantagens:
Processo caro e demorado, especialmente para modelos grandes.
Reduz a flexibilidade do modelo para lidar com informações fora do escopo do treinamento.
Requer mais recursos computacionais e dados de alta qualidade para o treinamento.
RAG (Retrieval-Augmented Generation):
O RAG utiliza um banco de dados vetorizado para contextualizar e recuperar informações relevantes, fornecendo à LLM o suporte necessário para gerar respostas.
Vantagens:
Não requer treinamento do modelo, o que reduz custos.
Funciona bem com informações dinâmicas ou frequentemente atualizadas.
Mais flexível, já que o modelo não é restrito a um único domínio.
Desvantagens:
Pode ser mais lento, já que depende da busca e recuperação de informações no momento da execução.
Requer uma infraestrutura de armazenamento e indexação para o banco de dados vetorizado.
A precisão das respostas depende diretamente da qualidade do banco de dados vetorizado.
Comparação entre RAG e Fine-Tuning:
Custo: RAG é mais barato, pois não há re-treinamento do modelo. Fine-Tuning, por outro lado, tem um custo inicial elevado devido ao processo de treinamento.
Velocidade de Execução: Fine-Tuning é mais rápido porque as respostas já estão incorporadas no modelo. RAG pode ser mais lento, já que envolve a busca de informações.
Adequação:
RAG é ideal para informações dinâmicas e situações onde o conteúdo precisa ser frequentemente atualizado.
Fine-Tuning é melhor para informações estáticas e cenários que exigem alta eficiência em um domínio específico.
Conclusão:
Ambas as abordagens têm suas aplicações específicas. No seu caso, se o foco for custo-benefício e flexibilidade, o RAG pode ser mais adequado. Já se a prioridade for alta performance em um domínio estático, o Fine-Tuning é a melhor escolha.
Eu gostei muito do claude ia achei muito eu gosto do gemini tambem
Top! Claude.ai eu gosto também
Opa amigo, testa o Gemini 2.0 Flash Thinking, dizem que tá melhor que o o1
Opa foi lançado ontem. Querem um review deste modelo comparado com o O1?
Particularmente achei ele melhor chatGPT. Parabéns pelo vídeo.
Muito obrigado pelo feedback 🚀🚀🚀
essa versão será liberada futuramente apenas para a versão paga?
Com o passar do tempo, as empresas evoluem seus modelos e deixam os "desatualizados" de uso gratuito. Então, respondendo sua pergunta, daqui um tempo é bem provável que tenhamos outro modelo bom da empresa Google que seja a versão paga, e alguma versão anterior seja liberado no gratuito. Se será essa especificamente é difícil dizer.
Estou usando o 1206 da Google, meu amigo, se a openai brincar, eles tomam a liderança e é pq está em fase de testes
Opa! 🚀
Eu dei um input de 5000 linhas de código e ele me retornou um output de 200 linhas(travou), no O1 eu não tenho esse tipo de problema, então para o meu caso ele não é o melhor LLM, sem contar que o Output dele é muito lento, eu estou usando o Advanced e também tentei no AI Studio.
Em casos específicos uma IA pode sair melhor que outra mesmo. Tem a questão do momento que testou, as vezes as IAs passam por alguma instabilidade.
Foi meio frustrante porque eu queria que o gemini saísse a frente nesse quesito igual diz no llmarena, mas infelizmente vou ter que seguir com openAi 😅
Apesar não ser gênio faltar pensamento criativo fora de caixa nem polimata de raciocínio avançado de interdisciplinar mistura em Biologia e medicina Uso modelo IA,
Ser ótimo canal de notícias
🚀🚀🚀
Valeu!
Muuuito obrigado 🚀🚀🚀