LLAMA 3 da Meta com Interface Gráfica no Seu Computador - Open WebUI

Поділитися
Вставка
  • Опубліковано 11 тра 2024
  • Aprenda Inteligência Artificial! Seja Membro do canal:
    www.youtube.com/@Inteligencia...
    Ollama: ollama.com
    Open WebUI: github.com/open-webui/open-webui
    NVIDIA Container Toolkit: docs.nvidia.com/datacenter/cl...
    Docker: docs.docker.com/engine/install
    Site: www.inteligenciamilgrau.com
    Instagram: @inteligenciamilgrau
    facebook: / inteligenciamilgrau
    GitHub: github.com/inteligenciamilgrau
  • Наука та технологія

КОМЕНТАРІ • 59

  • @eliascarvalhooo
    @eliascarvalhooo 2 місяці тому

    Topzera 😮😮

  • @Vitor-ur2rl
    @Vitor-ur2rl 2 місяці тому

    Top, d++
    Você poderia ensinar como fazer fine tuning

  • @CarlosRedoanroberto
    @CarlosRedoanroberto 2 місяці тому

    Top demais esse conteudo, a configuração do seu pc deve ser top, aquela parte dos documentos seria como se fosse pra fazer RAG? Acho ollama tem api também não tem?

  • @ChatBot-cy3zf
    @ChatBot-cy3zf 2 місяці тому

    Que top!!!
    Comentando antes do video, existe API pra ela?

    • @inteligenciamilgrau
      @inteligenciamilgrau  2 місяці тому +1

      Existe sim!! No outro vídeo que falo do Ollama eu inclusive mostro como usar!! Dá uma olhada:
      ua-cam.com/video/0lAMNHuZk1w/v-deo.html

  • @VitorFachine.
    @VitorFachine. Місяць тому

    Boaa!
    Em algum dos planos de "Seja Membro" tem algum vídeo seu mais detalhado sobre Instalação do OpenWebUI ?

    • @inteligenciamilgrau
      @inteligenciamilgrau  Місяць тому

      Se a dúvida for simples, posso ajudar aqui mesmo!! Os membros tem acesso à um grupo de whats aberto para qualquer nível! Lá dá para tirar dúvidas desde que alguém saiba responder!! Valeuuuu

  • @gabrielvenancio9674
    @gabrielvenancio9674 Місяць тому

    Cara, que video bom! Todos os problemas que eu tive você explicou como solucionar, muito obrigado. Uma duvida, após eu desligar o docker e voltar a utilizar no dia seguinte, ele é capaz de relembrar todo o contexto que conversamos? Ou igual o chatgpt eu preciso sempre explicar tudo novamente

    • @inteligenciamilgrau
      @inteligenciamilgrau  Місяць тому

      Faaaaala Gabriel!! Que bom que deu certo!!! Fiquei na dúvida agora, mas acredito que perde!! Mas talvez o WebUI consiga recuperar!! Eu testei pouco, acabei não testando essa parte!!

  • @joygumero
    @joygumero Місяць тому +1

    Acabei de instalar no meu pc através do instalador mais recente para windows, é possível ativar a conversa por voz, como no chatgpt e fazer pesquisas online?

    • @inteligenciamilgrau
      @inteligenciamilgrau  Місяць тому +1

      Fala Joy!! Até onde usei, é possível clicar no play para ele ler o texto e também é possível clicar no mic para gravar a pergunta!! Mas não vi nenhuma opção para conversar sem precisar clicar!! E para as pesquisas on-line, não encontrei na versão atual!! Pode ser que tenha e acabei não achando!! Ou talvez surja em versões futuras!! Valeuuuuuuuuuu

    • @joygumero
      @joygumero Місяць тому

      No meu não tem o botão play como aparece aí, só tem o de enviar msg, baixei pelo próprio site do gpt4all o instalador.. poderia me ajudar?

    • @inteligenciamilgrau
      @inteligenciamilgrau  Місяць тому

      @@joygumero O gpt4all é outro!! Esse que usei é Openb WebUI!! Você entra no site github.com/open-webui/open-webui e segue as instruções do vídeo! Esse Open WebUI é bem completo, mas não é tão simples de instalar! Precisa de um pouco de persistência!!

  • @estudantededicado6419
    @estudantededicado6419 2 місяці тому

    eu testei esses dias uma IA que gera imagens e tmbm é instalada no PC. bom de +, pena q demora mt pra gerar as imagens

    • @inteligenciamilgrau
      @inteligenciamilgrau  2 місяці тому

      Faaaaala Estudante!! Tudo bem? Que modelo usou? Confere se você tem uma placa de vídeo tipo NVIDIA que fica mais rápido!! E também confere que as vezes mesmo que a gente tenha, ela não ativa na hora da instalação!! Valeuuuuuuu

    • @estudantededicado6419
      @estudantededicado6419 2 місяці тому

      foi um modelo em codado em python, eu baixei a pasta e fiz gerar umas imagens. foi do perchance, lembro que fiquei fuçando o site e clicando em td qnt era coisa azul q tinha la, ate que uma redirecionou para uma pagina do github do perchance, achei bem interessante

  • @robsonlirayou
    @robsonlirayou 20 днів тому

    Massa meu caro, gostei, agora eu tenho um SSD de 256 onde roda o Windows e tenho também um WSL2 ( O Linux com uma distribuição do Ubuntu ) quanto de espaço esta instalação ocupa???

    • @inteligenciamilgrau
      @inteligenciamilgrau  20 днів тому

      Faaala Robson!! Ela ocupa bastante!! São pelo menos uns 4 giga de instalação mais o tamanho do modelo!! Eu recomendo usar o WSL2 com um ubuntu dedicado estilo docker que aí fica fácil de desinstalar caso não use muito!! Aqui eu uso tão pouco que só instalo na hora de gravar vídeos! No geral os modelos gpt 3.5 ou haiku são bem baratos para usar via API e vale mais usar on-line! Valeuuuuuuuu

  • @rodrigomata2084
    @rodrigomata2084 2 місяці тому +1

    Fala Bob e aí blz? Não sei qual placa de vídeo você tem, mas no Reddit o pessoal falou que consegue tá conseguindo rodar a versão do llama 70b quantizada em iq2_s no formato GGUF com 24 GB de VRAM e tá bem fluindo, se vc tiver condições testa que tá show, pelo Ollama até agora não consegui rodar mas pelo llama.cpp tá de boa

    • @inteligenciamilgrau
      @inteligenciamilgrau  2 місяці тому +1

      Boaaaaa, gostei!! Eu vi que uma galera só recomenda usar até as Q4, que depois disso degrada bem o resultado!! Mas não vi ninguém comentando se uma Q2 ficar pior que as 8B, ou se é melhor que a 8B e pior que a 70B!! Pq como o peso vai perdendo precisão, às vezes vale uma 8B precisa que uma 70B degenerada!! Mas ainda não li os comentários sobre isso!! Valeuuu pelas informações!!

    • @rodrigomata2084
      @rodrigomata2084 2 місяці тому

      Então, eu uso geralmente modelo quantizados no máximo até q3_m (Mixtral) por padrão não reparei e nenhuma perca de qualidade tão significativa, realmente no modelo de quantização padrão tanto q1 quanto q2 nos testes que eu fiz ele começa a alucinar bastante, porém tem um novo padrão de quantização que está saindo para os modelos GGUF (imatrix) e incrivelmente pelos resultados que eu vi em iq2_s ele ainda alucina algumas vezes mas está trazendo respostas boas principalmente em inglês.

    • @rodrigomata2084
      @rodrigomata2084 2 місяці тому

      Mas realmente, também faço uso do llama 8b e as respostas estão me ajudando bastante, o 70b tá em 6 lugar na classificação geral do hugging face arena e um dos melhores em inglês superando o Claude 3 opus

    • @inteligenciamilgrau
      @inteligenciamilgrau  2 місяці тому

      Eu curti a 70B também!! Em geral uso no Groq!! Depois que comecei a fazer few shots na saída esperada com formato JSON, estou conseguindo usar qualquer modelo para as automações!! Tenho usado gpt3.5-turbo e claude3-haiku bastante dessa forma!! O claude só não uso mais porque ele fica dando limite de uso! rsrsrs

    • @ChatBot-cy3zf
      @ChatBot-cy3zf 2 місяці тому

      @@rodrigomata2084 opa mano, voce pode me passar seu contato? queria tirar umas duvidas sobre isso

  • @juniorsalma
    @juniorsalma Місяць тому

    Olá, ele nao rodar em notebook simples né? Será que daria pra usar o llama 2?

  • @vitorribas2829
    @vitorribas2829 Місяць тому

    Alguém sabe me dizer se tem um serviço que podemos pagar máquinas mais rápidas para rodar o modelo de 70b?

    • @vitorribas2829
      @vitorribas2829 Місяць тому

      Sei que tem o aws, que podemos rodar

    • @inteligenciamilgrau
      @inteligenciamilgrau  Місяць тому

      Um lugar que roda bem é no GROQ, é uma plataforma de IA do criador das TPUs da Google! Veja se lá dá certo! Valeuuuu

    • @vitorribas2829
      @vitorribas2829 Місяць тому

      Muito obrigado.

    • @emanueln.2707
      @emanueln.2707 Місяць тому

      E aí, deu certo?​@@vitorribas2829

  • @marceloguimaraes796
    @marceloguimaraes796 Місяць тому

    os modelos nao aparecem pra mim

    • @inteligenciamilgrau
      @inteligenciamilgrau  Місяць тому

      Faaaaaala Marcelo!! Não esquece que dar o "run"!! Que é ali que ele faz o download do modelo na primeira vez! Por exemplo "ollama run llama3"! É nessa hora que ele instala!! Aqui está a lista de modelos:
      ollama.com/library

  • @mellorafael
    @mellorafael 21 день тому

    Preciso obrigatoriamente de uma GPU, certo?

    • @inteligenciamilgrau
      @inteligenciamilgrau  21 день тому

      Obrigatoriamente é uma palavra muito forte! Mas a verdade é que sim! Na CPU fica lento demais! Mesmo na GPU, dependendo do modelo já fica lento! Valeuuuuuuu

  • @MPCDesenvolvimentoWeb
    @MPCDesenvolvimentoWeb Місяць тому

    Eu desisto, fiz tudo certinho e rodou tranquilo depois da instalação, liguei o PC outro dia e deu pau, já nao funcionava mais, refiz o passo a passo e agora só carrega a janela do chat mas nao carrega o modelo, mesmo ele estando instalado

    • @inteligenciamilgrau
      @inteligenciamilgrau  Місяць тому

      Faaaala MPC, se rodou uma vez estamos no caminho certo! Fez no Windows, Linux ou maços?

    • @MPCDesenvolvimentoWeb
      @MPCDesenvolvimentoWeb Місяць тому

      @@inteligenciamilgrau Windows 10 mesmo, acabei de fazer varias tentativas, ele não carrega nenhum modelo e quando tento instalar pelo painel da erro de conexão

    • @inteligenciamilgrau
      @inteligenciamilgrau  Місяць тому

      Boaa! Você fez como eu fiz usando o Ubuntu dentro do windows ou com o instalador deles? O problema que aparemente está acontecendo é que estão subindo dois ou mais ollamas ao mesmo tempo! E o sistema está se perdendo na hora de usar!!

    • @MPCDesenvolvimentoWeb
      @MPCDesenvolvimentoWeb Місяць тому

      @@inteligenciamilgrau Sim, usando windows mesmo, instalo o Docker, depois copio a linha de comando para GPU e abro um prompt "modo administrador" e colo...
      dou enter ele começa o download... ja fiz de tudo, so funcionou a primeira vez, ja limpei todos os arquivos e desisntalei tudo, limpei historico e arquivos TEMP.. nada ate agora

    • @inteligenciamilgrau
      @inteligenciamilgrau  Місяць тому

      Quando você digita "ollama list" aparece algum modelo listado?

  • @felipealmeida5880
    @felipealmeida5880 2 місяці тому

    É legalzinho pra brincar, mas ainda é bem burrinho com 8B. Para tarefas relevantes não dá pra confiar, o ideal seria 70B+, mas meu PC pegaria fogo. Copilot sai ganhando ainda infelizmente...

    • @inteligenciamilgrau
      @inteligenciamilgrau  2 місяці тому +1

      Faaaaala Felipe!! A questão do 8B tem mais a ver com o hardware que cada um tem!! Estava vendo aqui que uma A100 da NVidia custa 140 mil reais! Com 80 giga! Aí dá pra rodar um Ollama turbinado com Llama3 70B relativamente suave! Talvez umas duas pra ficar top! rsrsrs No geral eu consigo usar modelos 8B em produção fazendo few shots com JSON na saída esperada!! Dá até para usar modelos 8B!! Os modelos estão cada dia mais robustos!! Valeuuuuuuuuuuu

    • @felipealmeida5880
      @felipealmeida5880 2 місяці тому

      Vish se custa tudo isso, acho que mesmo otimizando ao máximo não vão conseguir fazer milagre com os modelos, alguma coisa vai ter que surgir aí no caminho para poder usar um ChatGPT em casa algum dia. Provavelmente em menos de uns 10 anos não vamos ver um hardware que não custe o olho da cara nas lojas.

    • @inteligenciamilgrau
      @inteligenciamilgrau  2 місяці тому

      Kkkkkkkkk exatamente! Llm é um problema de hardware e também energético! Certeza que essas empresas estão dando prejuízo nos preços que vendem o uso das apis! A conta não fecha! Aparentemente estão dando lucros colaterais!

    • @impirotec5786
      @impirotec5786 Місяць тому

      ⁠o meu também pegaria fogo.

    • @impirotec5786
      @impirotec5786 Місяць тому

      @@felipealmeida5880 que será que acontece se tentassemos usar o bloom? que tem 1,75 trilhões de parâmetros?

  • @alexsanders8881
    @alexsanders8881 Місяць тому

    Achei que o vídeo iria ensinar tudo do zero.. :(

    • @inteligenciamilgrau
      @inteligenciamilgrau  Місяць тому +1

      A parte que eu ensino desde o começo está neste outro vídeo aqui:
      ua-cam.com/video/0lAMNHuZk1w/v-deo.html
      Valeuuuuuuuuuuu

    • @alexsanders8881
      @alexsanders8881 Місяць тому

      valeuuu

  • @drillzer4
    @drillzer4 2 місяці тому

    instalação chatona.

    • @neomatrix2669
      @neomatrix2669 2 місяці тому

      Tem o "LM Studio" para Windows, é muito mais fácil, porém só não tem essa função de analisar documento.

    • @inteligenciamilgrau
      @inteligenciamilgrau  2 місяці тому

      O ollama é simples, a webui que é mais complexa! Valeuuuu

    • @inteligenciamilgrau
      @inteligenciamilgrau  2 місяці тому

      Verdade, e esse daí você sobe em um servidor VPS e já tem até Login e senha