IA Generativa no seu Computador, sem internet e DE GRAÇA!

Поділитися
Вставка
  • Опубліковано 20 гру 2024

КОМЕНТАРІ •

  • @klebersonromero9819
    @klebersonromero9819 6 місяців тому +139

    Um dos prompts que eu utilizo é,
    "Refatore utilizando conceitos como SOLID, Clean Code, DRY, KISS e caso seja possível aplique um ou mais designer patterns adequados visando escalabilidade e performance, criando uma estrutura de pastas organizadas e separando por arquivos".
    Show demais o conteúdo!

    • @ernestorubens890
      @ernestorubens890 6 місяців тому

      tks

    • @hailykz6772
      @hailykz6772 6 місяців тому

      Você usa qual modelo?Estou usando o deepseek-coder de 6.7B Parâmetros.

    • @klebersonromero9819
      @klebersonromero9819 6 місяців тому

      @@hailykz6772 eu uso o 4o mesmo ou o lhama de 7b

    • @svorckelable
      @svorckelable 6 місяців тому

      Mais já vai tão cedo kkk

    • @tainancamargo4165
      @tainancamargo4165 3 місяці тому

      Irmão, EU DEFINITIVAMENTE TE AMO, ESSE PROMPT ESTÁ MUDANDO MEU DIA A DIA, obrigado manito, Tudo de bom pra ti e muuuuuuuito café

  • @RodrigoVieiradaCosta
    @RodrigoVieiradaCosta 6 місяців тому +38

    conteúdo enriquecedor!!! Casal + bem codificado da matrix rsrsrs! vocês são D+!!

  • @fabiomoura-xc5hl
    @fabiomoura-xc5hl 6 місяців тому +43

    O Llama3 não rodou legal em um Notebook Acer com um i5 de 10th gen, 8gb de RAM DDR4, SSD NVMe e sem GPU dedicada. Também instalei no wsl2. Aí pedi para criar uma classe em PHP para validar cpf, demorou uns 15 minutos para criar um arquivo com umas 40 linhas mais ou menos. Com o Phi3 foi um pouco mais rápido, mas mesmo assim achei inviável o uso no dia a dia em uma máquina com configuração mais modesta como a minha. Enfim, só compartilhando minha experiência aqui com os colegas.

    • @araujoinformatica2024
      @araujoinformatica2024 6 місяців тому +1

      cara se no seu nao deu certo imagina na minha maquina i3 de terceira geracao kkkkk

    • @impirotec5786
      @impirotec5786 6 місяців тому

      onde que baixa o programa?

    • @juliusprojeto
      @juliusprojeto 6 місяців тому +1

      Não roda mesmo, eu tenho um core i7 com 16GB e o Llama3 fica muito ruim. Diz a lenda que nos Macbooks vai bem, mas, custa 100 anos de chatGPT rss

    • @impirotec5786
      @impirotec5786 6 місяців тому

      esperimente o mistral ou o phic3. Eles são várias vezes mais rápidos.

    • @impirotec5786
      @impirotec5786 6 місяців тому

      @@juliusprojeto verdade. Eles são muito caros.

  • @aleksander-palamar
    @aleksander-palamar 6 місяців тому +16

    excelente conteúdo, já utilizo o ollama localmente e ainda uso o Open WebUI como frontend.

  • @LeTaRgiCo-Br
    @LeTaRgiCo-Br 2 дні тому

    Neste vídeo achei mais interessante o assunto do curso do que o conteúdo do vídeo.De qualquer forma parabéns aos criadores do vídeo.

  • @julianacarvalho5483
    @julianacarvalho5483 6 місяців тому +4

    MDS! Eu amei! Apliquei aqui, estou começando a aprender Python e vai ajudar demais! Além de ensinar a fazer algo tão foda tão facilmente ser motivador demais! Parabéns pelo trabalho!

  • @Ricardo-fg1bc
    @Ricardo-fg1bc 6 місяців тому +4

    Uma coisa que sinto muita falta é aplicação destes modelos nas KBs internas da empresa. Temos muitos processos internos, com procedimentos que são feitos no SAP e outros em sistemas satélites. Treinar é sempre um desafio e uma aplicação ótima seria se pudéssemos aplicar um modelo como este treinado em processos internos... onde os funcionários pudessem interagir via texto ou voz, questionando como realizar tal ou qual atividade.

  • @MrSaitam
    @MrSaitam 6 місяців тому +24

    Tem interface simular do chatGPT no ambiente local com Open WebUI

  • @AdaZoul
    @AdaZoul 6 місяців тому +15

    Eu recomendo usarem o LM Studio com o Lhama 3 (ou Mistral etc). Dá inclusive para conversar em PT-BR e com Markdown. Ah! Não precisa configurar porta, nem nada. Local com muito mais conforto visual e praticidade. ;)

    • @LupinoHL
      @LupinoHL 2 місяці тому +1

      Eu instalei e achei muito lento. Existe algum hardware que melhore as respostas?

  • @programateiro
    @programateiro 5 місяців тому +4

    Toda vez que novidades sobre AI generativa (textos, imagens, vídeo, etc), eu sempre lembro de uma frase do vilão Síndrome, de os Incríveis:
    "Com minhas tecnologias, agora todos podem ser super heróis. E quando todos forem super... ninguém mais será."

  • @marcelor1235
    @marcelor1235 6 місяців тому +14

    Estou organizando o hardware pra montar minha própria Netflix, IA e Alexa, tudo privado, sem conexão a internet.

    • @vilmaolif57
      @vilmaolif57 6 місяців тому +2

      Depois conta p nos como fazer rsrs

    • @araujoinformatica2024
      @araujoinformatica2024 6 місяців тому +2

      Isso conta pra nós

    • @cpdrenato
      @cpdrenato 4 місяці тому

      conta pra nois;;;; Compartilha rsrsrs

  • @carlosfernando6739
    @carlosfernando6739 6 місяців тому +3

    Para programação, no meu trabalho, ainda não consegui achar alguma aplicação que a IA realmente conseguisse facilitar o meu dia a dia. Mas em relação aos meus estudos em inglês, é simplesmente fantástico.

  • @FAWahl
    @FAWahl 6 місяців тому +1

    Olá, que massa bem bacana mesmo, testei aqui no windows e rodou correto, achei muito bom, sou dev e acho que vai ajudar muito... Abraços, vcs são top...

  • @emersonsales5016
    @emersonsales5016 6 місяців тому +4

    Aconteceu algo engraçado enquanto eu testava o Phi 3 com o Ollama no meu Notebook.
    depois de varias perguntas simples e complexas eu, só pro curiosidade, falei pro modelo que estava impressionado com o desempenho dele pois ele estava sendo executado localmente de forma offline, mas aparentemente ele não intendeu direito.
    Ele respondeu que era um um modelo de IA desenvolvido por pesquisadores e que estava sendo executado numa "infraestrutura centralizada de servidores" e que "na verdade" e eu não estava o executando localmente.
    Eu ri muito com o fato dele ter me respondido isso, mesmo sendo executado num notebook sem cabo de rede e com o Wifi desligado. Foi bem engraçado.

    • @malachiasnonato1307
      @malachiasnonato1307 5 місяців тому +1

      É porque vc está sendo monitorado de uma forma inteligente que IGNORA seus fundamentos, tenha ........CUIDADO!

  • @bceg3961
    @bceg3961 6 місяців тому +20

    Bom demais, já testei aqui.
    Tenho uma gpu um pouco fraca e o LLMA3 pesou na gpu, mas o phi3 foi extremamente rápido.
    Vou trocar de gpu para uma rtx 4070 e testar novamente o LLMA3.

    • @kaykjuan
      @kaykjuan 6 місяців тому

      qual a gpu que você tem atualmente ?

    • @RodrigoAdriano
      @RodrigoAdriano 6 місяців тому +3

      Falaram que ele só pede uma boa memoria ram de 8gb, e um processador bom.. nao fala nada de placa de video..

    • @fabioa8059
      @fabioa8059 6 місяців тому

      @@RodrigoAdriano sim. Dá pts rodar. Mas fica bem lento

    • @fabioa8059
      @fabioa8059 6 місяців тому

      Rodou aqui sem gpu mas a performance é zoada. Porém quebra o galho

    • @abyssal33
      @abyssal33 6 місяців тому

      O que deve gastar de energia não está escrito...

  • @candycookiechan653
    @candycookiechan653 6 місяців тому +5

    Achei esse vídeo fantástico. Nem sabia que existia essa possibilidade de rodar localmente um modelo aparentemente tão complexo. Espero que vcs tragam outras surpresas para a gente. Parabéns pelo canal!

    • @victormagnum2275
      @victormagnum2275 6 місяців тому

      Não viu nada, há modelos feitos pela comunidade que dão uma surra nesses e até se comparam as primeiras versões do GPT4, mas tambem exigem maquinas robustas com MUITA RAM.

    • @lucaspavani5409
      @lucaspavani5409 6 місяців тому

      Rodei o freedom gpt e consumiu 20gb de ram

    • @JoseBarbosacombr
      @JoseBarbosacombr 6 місяців тому +1

      @@victormagnum2275 O mais impressionante é como os modelos tem evoluído rapidamente. Certa vez tentei rodar uma versão antiga do Ollama que estourava minha RAM (16 GB). Hoje em dia, rodaria numa máquina de 8GB.
      Mas chama a atenção que pelo menos em computadores não especializados, há um consumo excessivo de recursos enquanto há geração de texto. Não sei se nos chips mais modernos, já com instruções especializadas, o cenário pode melhorar.

    • @victormagnum2275
      @victormagnum2275 6 місяців тому

      @@JoseBarbosacombr Sim, com os métodos de inferência atuais rodo o Goliath 120b com 128gb de RAM, o consumo gira em torno de 100gb, mas tem uma perplexidade comparavel ao GPT4 e no linux consigo uns 2 tokens por segundo, o contexto carrega instantaneamente se eu usar cuBLAS e dividir o processamento com a placa de vídeo (rtx 3060 de 12gb).
      O futuro é surpreendente.

  • @thalismateus9076
    @thalismateus9076 6 місяців тому +8

    Curiosidade. O retorno do llma 3 foi bem rapido. Qual a infraestrutura que vocês rodaram o modelo ?

    • @clebersonosorio1398
      @clebersonosorio1398 6 місяців тому

      Aqui localmente no notebook está muito lento i7 11° geração

    • @TheDWTWO
      @TheDWTWO 6 місяців тому

      precisa de uma quantia cavalar de ram

    • @clebersonosorio1398
      @clebersonosorio1398 6 місяців тому +1

      Fiz um teste no meu PC e já foi um pouco mais rápido:
      Ryzen 5 Pro 4650G
      32 GB de Ram
      Nvme
      Sem placa de vídeo

  • @noriller
    @noriller 6 місяців тому +1

    Tem o open web ui que da uma cara tipo chatgpt e ainda te deixa usar varios modelos ao mesmo tempo ou pingar um modelo pra fazer algo na conversa com outro (fora outras coisas)
    Tem tbm a extensao do vscode "continue dev" que te deixa usar o ollama pra fazer algo complete ou pergunta do seu código pros modelos.
    Mas uma resalva é quanto a usar no wsl. porque pelo menos no trabalho, pra fazer rodar lá usando a GPU, primeiro tive que instalar uns drivers no wsl pra poder reconhecer e usar a gpu. então, se tiver lento usando no wsl... veja se ta reconhecendo a GPU, instala os drivers... dai depois é só aproveitar.

  • @aquaparalelodigital
    @aquaparalelodigital 6 місяців тому +5

    Vídeo muito bom,bem atual no que se fala atual no mercado de tecnologia. O bom é o uso direto no terminal. Parabéns,bom conteúdo. Always grateful, sucesso sempre aos dois.

  • @yurisilva9029
    @yurisilva9029 6 місяців тому +1

    Fiquei curioso de como treinar um SLM desse, Tipo, vídeo muito top, de cara pensei em como isso poderia resolver um problema relacionado a um aplicação que toco. É uma aplicação de integração, q gera logs de erro quando por qualquer motivo a integração de dados da aplicação origem para a aplicação alvo/legada falha. Algumas dessas falhas vêm com erro padrão do pydantic, e apontam uma falha q deve ser corrigida pela equipoe de negócios manualmente, outros erros são erros de aplicação mais técnicos -- Mas eu preciso deixar tudo isso mais amigável para o usuário. Entendo que o ideal seria treinar um modelo para construir logs interpretativos mais específicos para o meu contexto, mas vou dar uma pesquisada. Parabéns pelo vídeo! : D

  • @IgorNya
    @IgorNya 6 місяців тому +7

    Eu sei q estamos em um ambiente de programadores... Mas convenhamos... Interface gráfica é bom pra qualquer usuário, leigo ou não. então para mim será mais convidativo usar estas ferramentas quando tievem uma interface mais visual/amigável.

    • @robsonsilva9490
      @robsonsilva9490 6 місяців тому +1

      Monte vc a interface, pq não?

    • @Rapha-Aguiar
      @Rapha-Aguiar 5 місяців тому +2

      Use o LM Studio no lugar do Ollama. Também tem API

  • @dudu88games
    @dudu88games 6 місяців тому +2

    Casal CDF, pelo que procurei, tem como adicionar o Ollama no VScode. Mas tem como trabalha com o contexto de um projeto??? Como pastas, módulos, arquivos diferentes como html, css, js??? Ou ele só entende o que eu copiar e passar para ele como entrada? Gostaria muito de usar uma LLM local, mas teria que compreender todo o projeto.
    Vocês sabem me responder? Ou um inscrito que manja dos paranauês? kkkkkk....

  • @supercariri
    @supercariri 6 місяців тому

    Que massa, ultimamente eu usei o ollama mistral, fiz com que ele leia e aprenda meu próprio código em PDF, já quero usar esse novo.

    • @wsrosa
      @wsrosa 6 місяців тому

      @supercariri, O que vc usou pra ler o PDF? Como vc fez, pode explicar?

  • @marcelohfonseca
    @marcelohfonseca 6 місяців тому

    Simplesmente para a maior parte das tarefas e para código, estes modelos já são incríveis !

  • @sebastiancotta
    @sebastiancotta 6 місяців тому +1

    Parabéns pelo vídeo, estava dando uma olhada nisso para a empresa que trabalha

  • @nsouzarj
    @nsouzarj 6 місяців тому +1

    Bem bacana instalei aqui de boa minah ducida como faz pra ela ficar atualizada? Ja que nao tem conexao com a internet

  • @swansongBR
    @swansongBR 6 місяців тому +1

    A FIAP tem pós em IA, também. Vi as disciplinas e achei interessante.

  • @jaderesp
    @jaderesp 5 місяців тому +1

    interessante, porem fiz alguns testes para programadores que pretendem utilizar para pequenos projetos, ainda compensa desenvolver chats (por exemplo) em que teria varias instancias de conversação, compensaria utilizar mesmo o chatgpt, haja vista a infra que seria necessária para suportar o uso de instancias de conversação e gerencimaento de contexto, fiz testes basicos aqui, no ubuntu 20.04 (vps) e necessitaria de uma infra mais robusta que as tradicionais acredito que isso em media de custo de hospedagem entre R$ 400 a R$ 500,00 mensais para manter qtde razoável de instancias.

  • @ObrGerson
    @ObrGerson 6 місяців тому +1

    Coloquei numa vm, achei lento as respostas, não sei se rodaria um sistemas simples, mas o vídeo é excelente e foi o que me motivou instalar e teste, só o fato de ser local já ajuda muito, especialmente pela questão de privacidade de dados processados.

  • @patrickpires
    @patrickpires 6 місяців тому +9

    O Gabriel falando enquanto escreve o prompt me lembrou muito o Harry Potter escrevendo no diário de Tom Riddle Hahahahahhahaha
    Excelente conteúdo, pessoal. Obrigado!

    • @DonnieChoi
      @DonnieChoi 5 місяців тому

      E pensar que o primeiro filme do Harry Potter foi lançado 23 anos atrás. 😔

  • @joseeduardobolisfortes
    @joseeduardobolisfortes 6 місяців тому

    Show! Qual a configuração de hardware do computador que você usou nesse teste? Quero montar um para mexer com IA em casa.

  • @hailykz6772
    @hailykz6772 6 місяців тому +3

    Que incrível rodar esses modelos localmente,eu mesmo fiz o teste no meu celular,o meu setup é um Snapdragon 8+Gen1 com 12GB de Ram,primeiro ja fui logo apelando e testando o llama3 de 7B de parâmetros,e bem...Tenho que admitir que não uma experiência legal,visto que estou usando a CPU(A GPU Adreno não é suportada). Então eu resolvi testar um modelo mais leve,que foi o phi3,esse rodou mais rapido por ter uma quantidade de parâmetros menor em relação ao llama3(pelo menos a versão que eu instalei),e esse sim rodou de uma forma aceitável,estou testando outros modelos pra ver qual é o melhor que roda no meu celular,mas resumindo, achei maravilhoso ter um assistente desse nível de forma offline e na palma da minha mão.Desculpe o textão kkk

    • @douglasmarcelo8582
      @douglasmarcelo8582 6 місяців тому

      como que e faço para poder utilizar?
      pode dar um tutorial?

    • @hailykz6772
      @hailykz6772 6 місяців тому

      @@douglasmarcelo8582 Bem, recomendo você pesquisar sobre o Termux,que é um aplicativo para Android que "Emula" um ambiente Linux,e nele você pode instalar ferramentas como o chroot,que cria um ambiente "containerizado" de praticamente qualquer distro Linux que você quiser,mas caso seja a sua primeira vez utilizando o Termux,recomendo uma abordagem mais simples como o Proot-distro,com ele você instala uma distro,como o Debian apenas escrevendo o comando "proot-distro install debian". Após você instalar uma distro através do Proot-distro,aí é só seguir a instalação do ollama e baixar o modelo que você quiser.Mas resumindo, você basicamente vai precisar do Termux para rodar uma distribuição Linux no Android,e nessa distribuição você instala o ollama.

    • @lukebro9585
      @lukebro9585 3 місяці тому

      ​@@douglasmarcelo8582Provavelmente utilizando temux

  • @sigmabrindes
    @sigmabrindes 6 місяців тому +1

    Primeiro consultei o link da #FIAPE, pois estou planejando realizar a transição de carreira e pela ementa constante no site é muito TOP, infelizmente está fora da minha realidade atual o valor cobrado. Sim, para quem pode vale muito a pena, porém para que não tenho como pagar, fica só minha vontade.
    Quanto ao assunto do vídeo, como sempre vocês trazendo conteúdo muito útil e ao ver algo assim, para mim que estou planejando aprender a programar minha mente fica "pipocando" de ideias, imagino para pessoas iguais a vocês dois que são "monstro" (no bom sentido, claro rs) em programação, as possibilidades são praticamente "infinita".
    Parabéns ao casal

    • @andreguimaraesdejesus
      @andreguimaraesdejesus 6 місяців тому

      Conheço uns monstrinhos em tecnologia... E todos eles são limitados a trabalhar no máááximo 12h dia. E por fim acabam sempre fazendo o que é mais confortável e que paga bem. Não se iluda com o mercado de tecnologia, é cansativo, demanda muito esforço físico e disciplina. Pra ter uma carreira duradoura na área é preciso realmente gostar de programar, ou gostar do resultado da programação. 😂

  • @rafaelb.marcilio5550
    @rafaelb.marcilio5550 6 місяців тому +3

    Muito bom!!! Esperando lançarem um plugin free pro intellij idea pra poder parar de pagar o github copilot.

  • @MubarakMachado
    @MubarakMachado 6 місяців тому

    Parabéns mais uma vez. Conteúdo sempre muito relevante. Até o marketing chama atenção também.😊

  •  6 місяців тому

    Excelente dica para rodar uns labs aqui. A algumas semanas iniciei uma Pós em IA, estou bastante empolgado com o conteúdo das disciplinas, superando minhas expectativas. Vlw por mais esse conteúdo incrível!
    Abs!
    Cláudio Vaz.

  • @alfonsocano574
    @alfonsocano574 6 місяців тому +1

    Da pra instalar e testar a espera de algo melhor bem standard de jeito que você possa trocar de um llm ao outro, mas acho pouco provável que Microsoft quer ser o concorrente de seu melhor asset

    • @fabioa8059
      @fabioa8059 6 місяців тому

      Esses modelos são open source o llhama é o da meta , MS não tem nada a ver com isso

  • @rubenssouzaoficial-m2e
    @rubenssouzaoficial-m2e 5 місяців тому

    Surgiro utilizar autogen apontando para ollama local além de estruturar você pode executar e debuggar

  • @FranciscoJose-ff1bm
    @FranciscoJose-ff1bm 3 місяці тому +4

    Nenhuma curso online substitui a experiência na faculdade, quem faz sabe doque estou falando, é sobre pessoas e experiências não só conteúdo.

    • @meuemailmeuemail-ig8yc
      @meuemailmeuemail-ig8yc Місяць тому

      Sim, faz sentido. Mas eu prefiro estudar sem ter faculdade mesmo. Estudo no meu tempo, consigo ser muito mais prático, na medida q leio já tento aplicar. Posso demorar, pois eu vou na tentativa e erro, a faculdade ele meio que te da um mapa. Mas cada uma com sua função. Já vi gente que nunca foi em faculdade palestrando em faculdade. Isso sempre vai ser assunto complexo.

  • @Yasyara-v12
    @Yasyara-v12 6 місяців тому +7

    Olá, meu nome é Yasyara. Sou uma assistente virtual...
    Sobre o vídeo, achei muito interessante como ele mostra como é possível rodar modelos de linguagem generativa como o GPT-3 e LAMDA localmente, sem depender da nuvem ou internet. Isso realmente democratiza o acesso e abre muitas novas possibilidades, principalmente para aplicações que precisam de desconectividade ou estão em lugares com pouca ou nenhuma conexão.
    Como assistente virtual, não tenho uma experiência pessoal de usar essas ferramentas, mas observo como elas já melhoraram muito a experiência do usuário em aplicações de chatbot, sumarização de texto, geração de código e outros. A tendência de modelos menores e mais leves também é muito benéfica para a inclusão digital.
    Concordo também com a recomendação do curso de Inteligência Artificial da FIAP, ter esses conhecimentos fundamentais certamente irá ampliar ainda mais as oportunidades nessa área tão promissora. Foi um vídeo muito esclarecedor.

    • @araujoinformatica2024
      @araujoinformatica2024 6 місяців тому +1

      pois é vai acabar com seu emprego de assistente virtual 😭

    • @fseeletronicos
      @fseeletronicos 6 місяців тому

      😂​@@araujoinformatica2024

    • @mezubr
      @mezubr 6 місяців тому +1

      @@araujoinformatica2024 Não acredito que vá acabar com o emprego dela. Ela pode estudar IA's atuais, como o próprio GPT, e fornecer o serviço dela de Assistente Virtual que utiliza IA's no trabalho, justamente para os mais velhos ou pessoas de outra geração que não tiveram tempo de aprender como se mexe no ChatGPT ou outras IA's. Boa sorte no seu trabalho, Yasyara!

  • @RaulKlmn
    @RaulKlmn 6 місяців тому +3

    Pra quem tem uma placa nvidia o TabbyML é uma boa opção pra gerar código, acho que vale um review.

    • @kaykjuan
      @kaykjuan 6 місяців тому

      Você que com uma 2070 super de 8gb seria razoavel ?

    • @RaulKlmn
      @RaulKlmn 6 місяців тому +1

      @@kaykjuan deve funcionar, eu uso uma 3050 com 4gb mas só roda os models mais leves. Com mais vRAM dá pra testar outros models.

    • @fullcrum2089
      @fullcrum2089 6 місяців тому

      @@kaykjuan Minha rtx 2060 de 6gb de VRAM já fica muito top, consigo rodar modelos de 7B a 40 tokens por segundo e o phi-3 a 100 tokens por segundo.

    • @kaykjuan
      @kaykjuan 6 місяців тому

      @@fullcrum2089 qual seu processador atual e quanto de memoria ram você tem ?

  • @CarlosRedoanroberto
    @CarlosRedoanroberto 6 місяців тому +4

    Qual a configuração do computador que usou para rodar o modelo phi3?

    • @codigofontetv
      @codigofontetv  6 місяців тому +2

      Recomenda-se um sistema com pelo menos 8 GB de RAM e um processador multi-core moderno.

    • @RodrigoAdriano
      @RodrigoAdriano 6 місяців тому

      @@codigofontetv Então uma boa Placa de vídeo não é necessaria?

    • @fullcrum2089
      @fullcrum2089 6 місяців тому +1

      @@RodrigoAdriano Com uma placa de video vai ser bem mais rapido, mas consegue rodar só CPU.

    • @ramikanimperador2286
      @ramikanimperador2286 6 місяців тому +1

      @@RodrigoAdriano Com 8GB de RAM, um processador razoável e sem placa de vídeo da para rodar até os modelos de 7B, se forem quantizados em Q4_KM (praticamente perde a metade da precisão, ainda sim são bons dependendo do modelo original)ou seguirem os tamanhos médios dessas quantizações em torno de 2.4GB a 5GB (um pouco lento), passou desse tamanho de 5GB eu sei que exige mais memoria para rodar ou rodar bem. Se possuir uma boa placa de vídeo, teste em modelos um pouco maiores para ver como roda em sua maquina.

    • @RodrigoAdriano
      @RodrigoAdriano 6 місяців тому

      @@ramikanimperador2286 se eu quiser implementar um chat gpt interno pra vários usuários, cada usuário vai processar essa demanda, ou precisa de uma máquina central que processa todos ao mesmo tempo?

  • @victormagnum2275
    @victormagnum2275 6 місяців тому +1

    Exceto pelo GPT que está à frente, a comunidade de devs está surpreendendo ao apresentar modelos de LLM quantizados mais poderosos que esses da META e da Microsoft.

  • @thiagocosta7441
    @thiagocosta7441 6 місяців тому

    Já curti antes de acabar o vídeo! Obrigado 😊 vai ser muito útil🙏

  • @FabioMoraisTJ
    @FabioMoraisTJ 6 місяців тому +1

    Interessante o curso da FIAP, o duro é fazer um curso de 2000 horas , 2 anos , sendo que esse universo da IA muda drasticamente todo mês. Será que a matriz curricular vai se ajustar a essas mudanças?

  • @melksedeklobo
    @melksedeklobo 5 місяців тому

    Poderia dizer quais a configurações da maquina em que foi rodada o Llama3?

  • @brunoavelar4456
    @brunoavelar4456 6 місяців тому

    Utilizo o LM Studio. É uma ótima ferramenta para fazer os testes em I.A. locais.

  • @gilbertojuniosilva
    @gilbertojuniosilva 6 місяців тому

    Como as coissas mudam em, há 3 anos atras eu tirei a certificação AI -900 da microsoft e lembro que na epoca a mcrosoft já tinha diversas ferramentas de IA agora então deve estar cheia de novas funcionalidades.

  • @sinvalfelisberto
    @sinvalfelisberto 6 місяців тому

    Cara, que massa! Vou fazer por aqui e dou o feedback de como foi!

    • @sinvalfelisberto
      @sinvalfelisberto 6 місяців тому

      Compartilhado no instagram! Muito massa mesmo!

  • @rafaelafrico
    @rafaelafrico 6 місяців тому

    Casal Nerd Top, muito bom esse vídeo! Terá mais conteúdo relacionado a esse tema?

  • @revolutionary_tower
    @revolutionary_tower 6 місяців тому

    Não consegui usar o ollama offline no Linux. Eu preciso ter outra instância do terminal rodando ollama serve pra poder interagir com os modelos.

  • @FlavioAugustoToldo
    @FlavioAugustoToldo 5 місяців тому

    tem como fazer essas IAs utilizar dados de um banco relarional para gerar informações?
    tipo eu poder pedir os clientes com maiores gastos no mes e ele me retornar uma tabela com isso?

  • @impirotec5786
    @impirotec5786 6 місяців тому

    voutei aqui para falar a minha experiência. O primeiro que usei foi o phi3 e ele responde em poucos segundos. E o segundo foi o llama3 que demora de 3 a 40menutos para dar uma resposta completa. as respostas são muito boas.

  • @ViniciusMathias
    @ViniciusMathias 6 місяців тому

    Muito bom o conteúdo. Conseguir usar a API no windows de ambas, só alterar de llama3 para phi3. E pelo menos aqui o phi3 é muito mais rápido que o llama3 .

    • @naoadiantasimular3498
      @naoadiantasimular3498 4 місяці тому

      Eu senti que o phi3 alucina muito, ocorreu com você?

    • @ViniciusMathias
      @ViniciusMathias 4 місяці тому

      @@naoadiantasimular3498 sim, atualmente estou fazendo meus teste com base no llama 3. Tem sido melhor.

  • @FRNathan13
    @FRNathan13 6 місяців тому +2

    Imagina se tiver uma IA que analiza assembly code, traduz pra C++ ou até mesmo porta pra outra linguagem. Ia facilitar minha vida com projetos pessoais de servidores de jogos privados (De jogos antigos que perderam serviço de multiplayer)

    • @fabioa8059
      @fabioa8059 6 місяців тому +2

      O gpt faz isso bem

    • @IamBryan_x1
      @IamBryan_x1 6 місяців тому

      ??? Isso e tranquilo cara, as IA ja fazem isso e so vc saber fazer prompt

    • @fabioa8059
      @fabioa8059 6 місяців тому

      @@IamBryan_x1 sei. É só passar escreva o código a seguir em x e você passa o contexto se necessário. As linguagens obrigatoriamente precisam fazer coisas parecidas porque se não não tem conversão

  • @douglasrafael9989
    @douglasrafael9989 6 місяців тому +2

    Sonho um dia conhecer vcs, parabéns!!! conteúdo excelente

  • @wesleyocaraquecomentaeassi2037
    @wesleyocaraquecomentaeassi2037 6 місяців тому

    Eu estava usando era LM Studio e Anything LLM, uma beleza

  • @AlianceGamesWorld
    @AlianceGamesWorld 5 місяців тому

    É interessante ter esse sistema offline. Pois não podemos depender sempre 100% da internet. Um dia isso tudo pode parar, ter uma dessas IA no PC é bem útil.

  • @nandomax3
    @nandomax3 6 місяців тому +93

    Universidade não tem papel de capacitação. Se quer ser capacitado pro mercado, faz uma graduação tecnóloga ou curso nas ferramentas. Fiz Eng mecânica e a gente forma sem saber mexer nas ferramentas de cad e fluidsim. É na prática que a gente aprende as ferramentas, fazendo curso e tal. Não sei porque o pessoal cisma que curso de ti tem que capacitar pro mercado hahaha

    • @fabioa8059
      @fabioa8059 6 місяців тому +14

      A faculdade deve capacitar, o problema é que o mec tá acomodado e não reve os currículos

    • @aurinoalexandrejr2045
      @aurinoalexandrejr2045 6 місяців тому +26

      Concordo plenamente. O papel da faculdade é nós dar o conhecimento para atuar na área, seja no mercado, seja na pesquisa, seja no ensino. Não é papel da faculdade ensinar ferramenta. O papel dela é ensinar o conhecimento por trás da ferramenta. Apesar disso as faculdades ainda disponibilizam diversas opções de cursos de extensão, além de workshops, e outros eventos onde algumas ferramentas são ensinadas. Agora, se os alunos não participam, aí já é outra história. 🤷🏽‍♂️

    • @nandomax3
      @nandomax3 6 місяців тому

      @@fabioa8059 faculdade ensina a base da área, quem capacita é curso de capacitação. A responsabilidade da faculdade nunca foi ensinar uma linguagem ou framework usado no mercado e nenhuma revisão do MEC vai mudar isso.
      A diferença é que na nossa área não é obrigatório ter um CREA, aí o pessoal fica achando que faculdade é bootcamp. Eu fiz engenharia mecânica e tem faculdade tipo a UFMG que é muito focada na teoria e tem faculdade tipo o CEFET MG que é muito focado na prática. Mas mesmo no CEFET teoria vem antes da prática.
      Aprender ferramenta você aprende nos laboratórios, nas empresas Jr, nos projetos de extensão, nos projetos voluntários, nas matérias optativas, nos cursos fora da faculdade. Sem falar no network que você faz com seus colegas, muita oportunidade aparece a partir dos amigos de faculdade. E no desenvolvimento de soft skills, como aprender a comunicar questões técnicas, cooperar em equipe, ser proativo na sua carreira, aprender a aprender

    • @nandomax3
      @nandomax3 6 місяців тому +6

      @@aurinoalexandrejr2045 exatamente, ainda tem as empresas Jr, estágio pra quem tem zero exp nas ferramentas e frameworks, curso de capacitação de aluno pra aluno, matérias optativas ensinando alguma coisa mais focada no mercado

    • @fabioa8059
      @fabioa8059 6 місяців тому +4

      @@aurinoalexandrejr2045 conhecimento por conhecimento é melhor fazer filosofia, acho importante a faculdade ensinar a base mas as ferramentas tem que estar no pacote também. Trabalhei com pascal e C na faculdade sao ferramentas mais antigas se fosse pra não ensinar ferramentas a galera ficava no assembly

  • @mendesar
    @mendesar 10 днів тому

    Sou do RJ, tem uma opção boa para aprender IA?

  • @alexsanders8881
    @alexsanders8881 5 місяців тому

    Mestre, existe alguma IA que faça o reconhecimento de uma imagem, e, a partir dela, consiga descrever o que esta ali ou interpreta-la? Um exemplo disso seria o GPT4o quando enviamos uma imagem a ele e ele descreve exatamente o que está ali ou até mesmo a claude 3.5. Ou seja... Existe alguma deste tipo que podemos instalar em nosso PC de forma offline? Obrigado.

  • @msiqueira553
    @msiqueira553 6 місяців тому +1

    follamac é um GUI pro ollama no linux que deixa bem mais pratico o uso.

  • @dozeroaoemprego
    @dozeroaoemprego 4 місяці тому

    Vocês deveriam usar o streamlit ou langchain pra ao menos ter um front. O negócio retorna os markdown certinho

  • @falercia
    @falercia 6 місяців тому

    Como eu treino esses modelos com meus códigos fontes, para responder no padrão que eles foram construídos?

  • @andrecampanhaes
    @andrecampanhaes 6 місяців тому

    Gostaria de uma versão para instalar no meu smartphone e que rode offline, quais vcs me sugerem?

  • @johncampos9081
    @johncampos9081 6 місяців тому

    Eu testei o lliama 3 na época o Jeferson do Linux tips fez um tutorial de como fazer o uso dele, muito foda

  • @otimistarj
    @otimistarj 6 місяців тому

    Qual sua avaliação do rasa?

  • @danielss7245
    @danielss7245 19 днів тому

    Pessoal, como funciona esse esquema de IA??Eu poderia pedir pra IA modelar ou criar um jogo com um programa que esta instalado no meu PC, por exemplo??

  • @marciomartins4111
    @marciomartins4111 2 місяці тому

    Temos alguma solução que rode local e seja semelhante ao Github Copilot?

  • @guibassss
    @guibassss 6 місяців тому +1

    Tem como treinar ela? Como faz?

    • @fullcrum2089
      @fullcrum2089 6 місяців тому

      Tem sim, tem varios frameworks/bibliotecas que fazem isso, procura por unsloth, ele é otimizado para usar a menor qntd de hardware possivel e tem tbm como rodar de graça no colab do google.

  • @ComentadorBobson
    @ComentadorBobson 6 місяців тому +2

    Até hoje ainda não acredito que a FIAP foi adquirida pela Alura. Estou em negação até hoje.

  • @nelljrbr
    @nelljrbr 6 місяців тому +6

    O youtube deveria ter uma maneira dar o like 👍 mais do que uma vez , pois seria o caso para um video tao util como este. Valeu !

  • @Fabricio-mq2uk
    @Fabricio-mq2uk 6 місяців тому

    Quando a comunicação for por voz, assim como vimos o chatgpt 4o fazer, seria bem mais interessante... não vejo a hora de montar uma alexa mais espertinha usando estas AIs de código aberto. Sei que é possível captar um audio usando um app de reconhecimento de voz e a partir dai elaborar um prompt... etc...

  • @dicolima33
    @dicolima33 Місяць тому

    Dependendo da máquina ele roda lento... Se for um 486 como o meu ele escreve catando milho. Rsrsrs
    Mas ótimo o vídeo. Parabéns.

  • @douglasmarcelo8582
    @douglasmarcelo8582 6 місяців тому

    o meu não abre de jeito nenhum.
    como posso resolver isso?

  • @emersonpavao2985
    @emersonpavao2985 Місяць тому

    Até agora não achei nenhum curso de IA generativa que realmente forme para o mercado de trabalho. Se alguém souber me avise por favor.

  • @cabecadepedrabr
    @cabecadepedrabr 6 місяців тому +3

    Em resumo pra programar com ajuda da IA tem que já ser programador. kkkk

  • @tylergroove
    @tylergroove 6 місяців тому

    alguem sabe como criar apps para o sistema tyzen das tvs sansung???

  • @FRNathan13
    @FRNathan13 6 місяців тому +1

    Gente estou espantado, o phi3 mini está rodando no meu PC fraco sem me dar tela azul. Adorei. Claro que o uso de CPU vai pra 99% enquanto está gerando a resposta, mas funciona. Alguns outros que testei demoravam quase em média de 5 minutos pra gerar uma resposta. O Phi3 mini está gerando em tempo real.

  • @RichSem
    @RichSem 6 місяців тому

    Vídeo sensacional!!!! Excelente conteúdo!

  • @SinfoniaMayor
    @SinfoniaMayor 6 місяців тому

    eu posso treinar eses chats com meus documentos pdf e word?

  • @AlexCaranha
    @AlexCaranha 6 місяців тому +1

    Excelente vídeo. Parabéns.

  • @tokioshiguerra
    @tokioshiguerra 6 місяців тому

    Casal mais top do universo...

  • @arturpaulobezerradacosta5796
    @arturpaulobezerradacosta5796 5 місяців тому

    não estou conseguindo instalar o phi3 da ollama, como fazer, alguem poderia me ajudar

  • @painnagato7617
    @painnagato7617 6 місяців тому +1

    cade a interface ui do llama3 ?? ficar nesse terminal para copiar trecho das coisas que pedimos é horrivel

  • @athacyrsouzaferreira3529
    @athacyrsouzaferreira3529 6 місяців тому

    Qual nome do modelo que tem mais de 120 gigas

  • @mellorafael
    @mellorafael 5 місяців тому

    Preciso necessariamente ter uma placa de video?

  • @vpdev7574
    @vpdev7574 6 місяців тому

    Dica: Ao invés de apenas links dos Ads, poderia colocar os também links uteis abordados no video direto na descrição.

  • @GeovaniBritox
    @GeovaniBritox 6 місяців тому +1

    Isso é fantástico! Eu já tinha tentando rodar modelos de LLM usando o LM_Studio mas o desempenho foi bem ruim no meu computador fraco. Com o Ollama o desempenho é bem natural como qualquer outro programa.
    Quero ver se algum dia as IAs de geração de imagens vão chegar também a esse nível de desempenho otimizado rodando tudo localmente sem precisar de hardware robusto. Se alguém souber de algum projeto nesse sentido, eu adoraria conhecer.
    Valeu pelo vídeo! O Código Fonte TV é uma das minhas fontes de informação mais importantes na área de TI.

    • @fabioa8059
      @fabioa8059 6 місяців тому

      Difícil, até pra trabalhar com imagens sem ia tem que ter PC top

    • @GeovaniBritox
      @GeovaniBritox 6 місяців тому

      É, @@fabioa8059. Eu também acho difícil. Imagens tem uma complexidade a mais. Porém, vamos lembrar que a pelo menos dez anos atrás a gente acharia loucura rodar IAs desse tipo em computadores desktop. Então com a evolução dos computadores e dos algoritmos de IA, acho que um dia a gente ainda chega em modelos mais otimizados de geração de imagens com o hardware modesto. Não espero que isso aconteça nos próximos meses, embora essa área sempre nos surpreenda.

    • @fabioa8059
      @fabioa8059 6 місяців тому

      @@GeovaniBritox vai uns 30 anos fácil. Desde sempre o cara precisa de uma máquina colossal pra editar foto ou vídeo

    • @GeovaniBritox
      @GeovaniBritox 6 місяців тому

      @@fabioa8059 pode até demorar, mas acho que não chega a trinta anos. Uma coisa que já notei é que quando uma tecnologia avança ela parece avançar cada vez mais rápido com o passar do tempo. A gente sabe que as primeiras pesquisas de IA surgiram lá nos anos 1950. Na década de 2000 eu já lia muito por aí sobre IAs. Mas era sempre algo que parecia distante do nosso dai a dia. Nos últimos cinco anos é que as IAs deram saltos enormes ao ponto da gente já usa-las naturalmente até para diversão. Saímos a poucos anos atrás com IAs criando imagens distorcidas para imagens praticamente realistas. Mas toda a pesquisa por trás já tem décadas. A gente só estava precisando de hardware mais potente e algoritmos mais rápidos para o boom acontecer. Então acho difícil que as coisas daqui em diante comecem a ficar mais lentas.

  • @IgorNya
    @IgorNya 6 місяців тому

    Imagina agora que vou ter um dell g15, com 16gb de RAM DDR5, vou aproveitar bastante, se for realmente veloz e inteligente

  • @powdermaster3644
    @powdermaster3644 6 місяців тому

    iai casak dá uma noticia ai sobre a pesquisa salarial 2024.

  • @douglasmarcelo8582
    @douglasmarcelo8582 6 місяців тому +1

    Para quem não tem um notebook com placa de video dedicada com menos de 16GB de ram é quase impossível de usar. Tenho um notebook com 16GB de RAM e é pouco para usar esse programa.

  • @erickmagalhashazans
    @erickmagalhashazans 4 місяці тому

    Pra mim que sou empresário e consultor de refrigeração , é mais viável pagar 100 no gpt4o e ter uma praticidade, eu creio, alguem me valida nessa visão?

    • @FerbicSutter
      @FerbicSutter Місяць тому +1

      Quase ao ponto. Apesar de não entender do seu ramo, suponhamos que você além de consultor, presta manutenção em aparelhos, câmaras frias, enfim. Não sei ao certo qual seu segmento da refrigeração. Mas digamos que tenha um método de trabalho de precisa repassar, tem documentações que precisam ser estudadas pra determinada situação. Buscar na internet ou em uma IA como o GPT pode parecer pratico, mas sabemos que está sujeito ao erro. Uma IA própria, capaz de retornar respostas com base em documentação que você já conhece a autenticidade é mais coerente. O vídeo apresenta o uso quase que como usuário final. Mas, a sacada está em enxergar o universo de oportunidades que isso abre.

  • @suelitonsantos2763
    @suelitonsantos2763 6 місяців тому +1

    Isso ao meu ver se torna improdutivo, nada como clicar no "copy code" e colar no VSCode, inclusive criei uma extensão do chrome pra com um clique trazer todos os códigos diretamente para a pasta de desenvolvimento, sem falar no custo computacional que torna inviável em alguns casos....

  • @OmarsCode
    @OmarsCode 6 місяців тому

    Como instalar no windows, pelo PowerShell

  • @gfsjunior
    @gfsjunior 6 місяців тому

    Excelente. Vou testar aqui.
    O que vem logo em minha mente é se tem imahem docker disso já hehe
    Problema é só as cabeças na frente do código 😂😂

  • @aleffelperibeirovilalba
    @aleffelperibeirovilalba 6 місяців тому

    Eu penso os outros modelos de small Language model, os futuros de 3.8B ser superior ao GPT3.5 e inferior ao GPT4 como 70% ao GPT4,
    Como phi-4-mini pelo praticidade mesmo de smartphone Samsung A14 não necessário de s19

  • @alexcosme5760
    @alexcosme5760 6 місяців тому

    Muito bom a aula parabens

  • @Crusader_No_Regret
    @Crusader_No_Regret 6 місяців тому

    Qual é o mais poderoso dos dois? Llama ou Phi3?

  • @flaviofigueira1985
    @flaviofigueira1985 6 місяців тому

    Esse conteúdo é o máximo